grafica di una farfalla su uno sfondo turchese e viola
grafica di una farfalla su uno sfondo turchese e viola
grafica di una farfalla su uno sfondo turchese e viola

Innovazione responsabile nell’era dell’IA generativa

Il nostro approccio all’IA generativa con Adobe Firefly si fonda su oltre un decennio di esperienza nell’integrazione dell’IA nei nostri prodotti. Nello sfruttare le sue potenzialità attraverso le nostre applicazioni, ci impegniamo sempre più per uno sviluppo consapevole e responsabile.

Il nostro approccio all’IA generativa con Adobe Firefly

Non addestriamo Adobe Firefly sui contenuti dei clienti, né lo abbiamo mai fatto.
Addestriamo Adobe Firefly solo su contenuti per cui disponiamo dell’autorizzazione o dei diritti.
Non sfruttiamo i contenuti presenti sul web per addestrare Adobe Firefly.
Ricompensiamo i creator che contribuiscono ad Adobe Stock per l’utilizzo dei loro contenuti per l’addestramento di Adobe Firefly.
Difendiamo i diritti di proprietà intellettuale della community creativa sostenendo la causa del Federal Anti-Impersonation Right Act.
Non rivendichiamo diritti di proprietà sui tuoi contenuti, compresi quelli creati con Adobe Firefly.
Crediamo nella protezione dei diritti dei creator e abbiamo fondato la Content Authenticity Initiative (CAI) per assicurare trasparenza nella proprietà e nelle modalità di creazione dei contenuti.
Abbiamo sviluppato Adobe Firefly facendo in modo che eviti di creare contenuti che violano il copyright o i diritti di proprietà intellettuale. Inoltre, è progettato per un utilizzo sicuro a scopi commerciali.
Vietiamo esplicitamente a soggetti terzi di condurre l’addestramento sui contenuti della clientela ospitati sui nostri server (ad esempio, su Behance) e agiamo concretamente perché rispettino questo divieto.

icona della formazione

Formazione

La qualità dell’intelligenza artificiale dipende da quella dei dati su cui viene addestrata e i risultati da considerare appropriati dipendono dal singolo caso d’uso. Per questo motivo costruiamo set di dati specifici per soddisfare le esigenze di ciascuna attività e garantire risultati diversificati ed etici, adatti al modo in cui l’IA sarà utilizzata.

icona del testing

Testing

Eseguiamo continuamente test rigorosi delle funzionalità e dei prodotti basati sull’IA per evitare pregiudizi e stereotipi dannosi. Ciò include test automatizzati e valutazioni umane.

icona delle valutazioni d’impatto

Valutazioni d’impatto

Il personale tecnico che sviluppa qualsiasi funzionalità alimentata dall’IA presenta una valutazione d’impatto sull’etica dell’IA. Si tratta di una valutazione in più parti progettata per identificare le funzioni e i prodotti che possono perpetuare pregiudizi e stereotipi dannosi. In questo modo, il nostro team di etica dell’IA può concentrare i propri sforzi sulle funzionalità e sui prodotti con il più alto impatto etico potenziale, senza rallentare il ritmo dell’innovazione.

icona della supervisione umana diversificata

Supervisione umana diversificata

Le funzionalità basate sull’IA che potenzialmente potrebbero avere il maggiore impatto etico vengono esaminate da un comitato di revisione etica dell’IA eterogeneo e interfunzionale. La diversità di background ed esperienze personali e professionali è fondamentale per individuare i potenziali problemi a partire da prospettive che un team meno eterogeneo potrebbe non rilevare. Ascolta i membri del nostro comitato. Guarda il filmato.

icona del feedback

Feedback

Offriamo meccanismi di feedback per segnalare risultati potenzialmente distorti e permetterci di porre rimedio a eventuali problemi. L’IA è in continua evoluzione e vogliamo lavorare insieme alla nostra community per migliorare strumenti e prodotti a vantaggio di tutte le persone. Se hai una domanda sull’etica dell’IA o vuoi segnalare un possibile problema etico legato all’applicazione dell’intelligenza artificiale, contattaci.