grafika motyla na seledynowo-fioletowym tle
grafika motyla na seledynowo-fioletowym tle
grafika motyla na seledynowo-fioletowym tle

Odpowiedzialne innowacje w dobie generatywnej sztucznej inteligencji

Nasze podejście do generatywnej sztucznej inteligencji Adobe Firefly powstało dzięki doświadczeniom zebranym w ramach integracji SI z naszymi produktami, co robimy od ponad dekady. Pracując nad jej zastosowaniami w naszych produktach, staramy się dbać o programowanie w przemyślany, odpowiedzialny sposób.

Nasze podejście do generatywnej sztucznej inteligencji — Adobe Firefly

Nie trenujemy i nigdy nie trenowaliśmy modeli Adobe Firefly przy użyciu zawartości klientów.
Modele Adobe Firefly trenujemy tylko przy użyciu zawartości, co do której mamy odpowiednie pozwolenie lub prawa.
Nie używamy publicznie dostępnej zawartości z Internetu do trenowania modeli Adobe Firefly.
Wynagradzamy twórców udostępniających prace w usłudze Adobe Stock w związku z ich użyciem do szkolenia modeli Adobe Firefly.
Bronimy praw do własności intelektualnej członków społeczności twórców, promując amerykańską ustawę Federal Anti-Impersonation Right Act.
Nie rościmy sobie praw własności do cudzej zawartości, w tym tej tworzonej przy użyciu technologii Adobe Firefly.
Dbamy o ochronę praw autorów, dlatego założyliśmy organizację Content Authenticity Initiative (CAI), której celem jest promowanie jawności tego, do kogo należy zawartość i jak została wytworzona.
Opracowaliśmy technologię Adobe Firefly w taki sposób, aby nie generowała zawartości naruszającej prawa autorskie czy prawa do własności intelektualnej. Została ona zaprojektowana do bezpiecznego użytku komercyjnego.
Jawnie zabraniamy osobom trzecim szkolenia modeli przy użyciu zawartości klientów przechowywanej na naszych serwerach (np. w serwisie Behance) i podejmujemy kroki zapobiegające takim działaniom.

Ikona szkolenia

Szkolenia

Sztuczna inteligencja działa tylko tak dobrze, jak dobre dane otrzymuje. Wyniki jej działania są odpowiednie tylko w określonych sytuacjach. Dlatego tworzymy zestawy danych dobrane pod kątem różnorodnych potrzeb naszej działalności, aby osiągać zróżnicowane, etyczne wyniki odpowiednie do zastosowań sztucznej inteligencji.

Ikona testowania

Testowanie

Prowadzimy ciągłe, rygorystyczne testy funkcji oraz produktów opartych na sztucznej inteligencji, aby zapobiegać powstawaniu szkodliwych uprzedzeń i stereotypów. Oprócz testów automatycznych wyniki oceniają też ludzie.

Ikona ocen oddziaływania

Oceny oddziaływania

Osoby rozwijające funkcje oparte na sztucznej inteligencji przesyłają oceny etyki wyników sztucznej inteligencji. Te oceny obejmują wiele aspektów funkcji i produktów, które mogą utrwalać szkodliwe uprzedzenia i stereotypy. Dzięki temu nasz zespół ds. etyki sztucznej inteligencji może odpowiednio reagować, aby poprawiać funkcje i produkty o najwyższym wpływie na etykę, nie spowalniając przy tym tempa wprowadzania innowacji.

Ikona zróżnicowanego nadzoru ludzkiego

Zróżnicowany nadzór ludzki

Funkcje oparte na sztucznej inteligencji, które mają największy potencjalny wpływ na etykę, są sprawdzane przez komisję ds. etyki w kontekście sztucznej inteligencji, której członkowie mają zróżnicowane poglądy i cechy. Zróżnicowanie oceniających pod względem zawodowym i społecznym ma kluczowe znaczenie dla rozpoznawania potencjalnych problemów, gdyż zapewnia odmienne perspektywy, jakimi nie mógłby dysponować zespół złożony z podobnych do siebie osób. Oto opinie członków naszej komisji. Obejrzyj wideo

Ikona opinii

Opinie

Udostępniamy użytkownikom mechanizm przekazywania opinii, który umożliwia zgłaszanie potencjalnie stronniczych wyników, abyśmy mogli ograniczać takie problemy. Sztuczna inteligencja jest wciąż rozwijana, dlatego pragniemy wspólnie z członkami społeczności ulepszać nasze narzędzia i produkty, tak aby służyły wszystkim ludziom. Jeśli masz pytanie dotyczące etyki sztucznej inteligencji lub chcesz zgłosić potencjalny problem związany z tym zagadnieniem, skontaktuj się z nami.