grafika motýla na modrozeleném a fialovém pozadí
grafika motýla na modrozeleném a fialovém pozadí
grafika motýla na modrozeleném a fialovém pozadí

Zodpovědné inovace v éře generativní AI

Náš přístup ke generativní AI s Adobe Firefly vychází z více než desetiletých zkušeností s integrací umělé inteligence do našich produktů. Při využívání jejích možností ve všech našich aplikacích dbáme ještě důrazněji na to, aby vývoj byl promyšlený a zodpovědný.

Náš závazek k tvůrcům

Adobe Firefly netrénujeme a nikdy jsme netrénovali na obsahu zákazníků.
Adobe Firefly trénujeme pouze na obsahu, ke kterému máme práva nebo nám pro tento účel bylo uděleno povolení.
Za účelem trénování Adobe Firefly nepoužíváme obsah nalezený na webu.
Přispěvatelům do služby Adobe Stock poskytujeme odměnu za použití jejich obsahu při trénování Adobe Firefly.
Bráníme práva duševního vlastnictví tvůrčí komunity prostřednictvím podpory zákona FAIR (Federal Anti-Impersonation Right).
Nečiníme si nárok na vlastnictví vašeho obsahu, včetně obsahu, který jste vytvořili pomocí Adobe Firefly.
Věříme v ochranu práv tvůrců, proto jsme založili iniciativu Content Authenticity Initiative (CAI) zaměřenou na zajištění transparentnosti vlastnictví obsahu a způsobu jeho vytvoření.
Adobe Firefly jsme vyvinuli tak, aby nedocházelo k vytváření obsahu, který porušuje autorská práva nebo práva duševního vlastnictví. Vytvořený obsah lze bezpečně komerčně využívat.
Výslovně zakazujeme třetím stranám využívat k trénování obsah zákazníků hostovaný na našich serverech (například na Behance) a podnikáme kroky k tomu, abychom tomu zabránili.

ikona trénování

Trénování

Umělá inteligence může být úspěšná jenom tehdy, když má dobrá trénovací data. To, jaké výsledky budou považovány za vhodné, závisí na jednotlivých případech použití. Proto jsme sestavili datové sady, které specificky odpovídají potřebám našich různých firemních jednotek, abychom dosáhli rozmanitých a etických výsledků vhodných pro způsoby, kterými se bude umělá inteligence využívat.

ikona testování

Testování

Funkce a produkty využívající umělou inteligenci průběžně procházejí přísným testováním, abychom se vyhnuli škodlivým předsudkům a stereotypům. Zahrnuje to automatizované testování i lidské hodnocení.

ikona posouzení dopadu

Posouzení dopadu

Inženýři vyvíjející funkce založené na umělé inteligenci předkládají posouzení dopadu na etickou práci s umělou inteligencí. Toto posouzení dopadu má několik částí a jeho účelem je identifikovat funkce a produkty, které by mohly šířit škodlivé předsudky a stereotypy. Díky tomu se náš tým pro etickou práci s umělou inteligencí může soustředit na funkce a produkty s potenciálně nejvyšším dopadem v oblasti etiky, aniž by se zpomalovalo tempo inovací.

ikona rozmanitého lidského dohledu

Rozmanitý lidský dohled

Funkce využívající umělou inteligenci s potenciálně nejvyšším dopadem v oblasti etiky jsou kontrolovány naší kontrolní radou AI Ethics Review Board. Rozmanitost osobního zázemí a profesních zkušeností členů rady je důležitá pro identifikaci potenciálních problémů z celé řady různých úhlů pohledu, které by méně různorodému týmu mohly uniknout. Seznamte se s názory některých členů této rady. Přehrát video.

ikona zpětné vazby

Zpětná vazba

Poskytujeme mechanismy pro zpětnou vazbu, aby uživatelé mohli hlásit výstupy, které by mohly šířit předsudky. Na základě takových hlášení pak přijímáme nápravná opatření. Umělá inteligence se neustále vyvíjí a my chceme spolupracovat s naší komunitou na dalším zlepšování našich nástrojů a produktů. Pokud máte nějaký dotaz nebo chcete nahlásit možný problém s etickým využíváním umělé inteligence, neváhejte a kontaktujte nás.