grafik av fjäril mot en turkos och lila bakgrund
grafik av fjäril mot en turkos och lila bakgrund
grafik av fjäril mot en turkos och lila bakgrund

Ansvarstagande innovation i den generativa AI:ns tidsålder.

Vår strategi för generativ AI med Adobe Firefly bygger på mer än ett decenniums erfarenhet av att integrera AI i våra produkter. När vi nu använder oss av AI i våra program är vi mer hängivna än någonsin åt genomtänkt, ansvarsfull utveckling.

Vårt förhållningssätt till generativ AI med Adobe Firefly.

Vi tränar inte och har aldrig tränat Adobe Firefly på innehåll från kunder.
Vi tränar bara Adobe Firefly på innehåll där vi har tillstånd eller rättigheter att göra det.
Vi utvinner inte innehåll från webben för att träna Adobe Firefly.
Vi ersätter kreatörer som bidrar till Adobe Stock för användning av deras innehåll för att träna Adobe Firefly.
Vi försvarar den kreativa communityns immateriella rättigheter genom att förespråka lagen Federal Anti-Impersonation Right Act.
Vi gör inte anspråk på någon äganderätt till ditt innehåll, inklusive innehåll som du skapar med Adobe Firefly.
Vi tror på att skydda kreatörers rättigheter och grundade Content Authenticity Initiative (CAI) med fokus på att säkerställa transparens i ägandet av innehåll och hur det skapades.
Vi har utvecklat Adobe Firefly för att förhindra att den skapar innehåll som gör intrång i upphovsrätt eller immateriella rättigheter, och den är utformad för att vara kommersiellt säker.
Vi förbjuder uttryckligen och vidtar åtgärder för att förhindra att tredje part tränar AI på kundinnehåll som finns på våra servrar (t.ex. på Behance).

utbildningsikon

Utbildning

AI är bara så bra som den data den tränats på och vilka resultat som anses tillämpliga beror på varje enskilt användningsfall. Därför bygger vi datamängder som specifikt ska uppfylla behoven i våra olika verksamheter för att säkerställa resultat, som ur etiskt och mångfaldsperspektiv, är tillämpliga för det sätt som AI kommer att tas i bruk.

testningsikon

Testning

Vi genomför löpande grundlig testning av AI-drivna funktioner och produkter för att motverka skadliga fördomar och stereotyper. Testningen omfattar såväl automatiska tester som mänsklig utvärdering.

ikon för konsekvensbedömning

Konsekvensbedömning

Ingenjörer som utvecklar AI-drivna funktioner lämnar in en AI-etisk konsekvensbedömning. Det är en konsekvensbedömning i flera delar som utformats för att identifiera funktioner och produkter som kan befästa skadliga fördomar och stereotyper. Det gör att vårt team för AI-etik kan fokusera på de produkter och funktioner som har störst potentiella etiska konsekvenser, utan att behöva sakta ner utvecklingstakten.

ikon för mänsklig tillsyn ur mångfaldsperspektiv

Mänsklig tillsyn ur mångfaldsperspektiv

AI-drivna funktioner med störst potentiella etiska konsekvenser granskas av en bred, funktionsövergripande prövningsnämnd för AI-etik. En mångfald av olika personliga och professionella bakgrunder och erfarenheter är kritisk för att identifiera potentiella problem från olika perspektiv som kanske inte skulle ha upptäckts av ett mer homogent team. Lyssna på medlemmar i nämnden. Titta på videon.

feedback-ikon

Synpunkter

Vi har återkopplingsfunktioner där användare kan lämna synpunkter för att rapportera potentiellt vinklade resultat så att vi kan avhjälpa eventuell oro. AI är en pågående resa och vi vill jobba tillsammans med vår community för att fortsätta göra våra verktyg och produkter bättre för alla. Kontakta oss gärna om du har frågor om AI-etik eller vill rapportera ett möjligt AI-etiskt problem.