Gráfico de borboleta em um fundo azul-petróleo e roxo
Gráfico de borboleta em um fundo azul-petróleo e roxo
Gráfico de borboleta em um fundo azul-petróleo e roxo

Inovação responsável na era da IA generativa.

Nossa abordagem para a IA generativa com o Adobe Firefly se fundamenta em mais de uma década de experiência na integração de IA em nossos produtos. À medida que utilizamos seu poder em nossos aplicativos, nosso compromisso com o desenvolvimento consciente e responsável é ainda maior.

Nossa abordagem para a IA generativa com o Adobe Firefly.

Não treinamos o Adobe Firefly com conteúdo de cliente e nunca fizemos isso.
Somente treinamos o Adobe Firefly com conteúdo para o qual temos permissão ou direitos para fazê-lo.
Não extraímos conteúdo da Web para treinar o Adobe Firefly.
Compensamos os criadores que contribuem para o Adobe Stock pelo uso de seu conteúdo no treinamento do Adobe Firefly.
Defendemos os direitos de propriedade intelectual da comunidade criativa por meio da defesa da Federal Anti-Impersonation Right Act.
Não reivindicamos nenhuma propriedade sobre seu conteúdo, incluindo o conteúdo que você cria com o Adobe Firefly.
Acreditamos na proteção dos direitos dos criadores e fundamos a Content Authenticity Initiative (CAI) com o objetivo de promover a transparência sobre a origem do conteúdo e o processo de criação.
Desenvolvemos o Adobe Firefly para evitar que crie conteúdo que infrinja direitos autorais ou de propriedade intelectual, e ele foi projetado para uso comercial.
Proibimos explicitamente e tomamos medidas para impedir que terceiros treinem com conteúdo de clientes hospedado em nossos servidores (como no Behance).

ícone de treinamento

Treinamento

A qualidade da IA depende dos dados usados para treiná-la, e quais resultados são considerados ideais dependem da finalidade de cada caso de uso. Por isso criamos conjuntos de dados feitos especificamente para atender às necessidades de cada um de nossos setores, garantindo resultados éticos e diversos ideais para a maneira como a IA será usada.

ícone de teste

Testes

Realizamos testes rigorosos e constantes dos recursos e produtos viabilizados por IA para reduzir a ocorrência de preconceitos e estereótipos nocivos. Isso inclui testes automatizados e avaliação humana.

ícone de avaliações do impacto

Avaliações do impacto

Os engenheiros responsáveis pelo desenvolvimento de recursos viabilizados por IA enviam uma avaliação do impacto ético da inteligência artificial. Trata-se de uma avaliação do impacto de várias partes desenvolvida para identificar recursos e produtos que possam perpetuar preconceitos e estereótipos nocivos. Com isso, nossa equipe de ética da inteligência artificial pode concentrar seus esforços em recursos e produtos com o maior potencial de impacto ético sem reduzir a velocidade da inovação.

ícone de supervisão humana diversa

Supervisão humana diversa

Os recursos viabilizados por IA com o maior potencial de impacto ético são analisados por um conselho de revisão ética da IA multifuncional e diverso. A diversidade de origens e experiências pessoais e profissionais é essencial para identificar problemas potenciais de uma variedade de perspectivas que uma equipe menos diversa poderia não enxergar. Ouça os membros do nosso conselho. Assista ao vídeo.

ícone de comentários

Comentários

Disponibilizamos mecanismos de feedback para que os usuários possam denunciar resultados potencialmente preconceituosos e nós possamos remediar quaisquer preocupações. A inteligência artificial é uma jornada contínua, e queremos trabalhar com a nossa comunidade para continuar criando ferramentas e produtos melhores para todos. Se tiver alguma dúvida sobre a ética da IA ou quiser relatar um possível problema relacionado, entre em contato.