gráfico de una mariposa sobre un fondo verde azulado y púrpura
gráfico de una mariposa sobre un fondo verde azulado y púrpura
gráfico de una mariposa sobre un fondo verde azulado y púrpura

Innovación responsable en la era de la IA generativa.

Nuestro enfoque de la IA generativa con Adobe Firefly se basa en más de una década de experiencia en la integración de la IA en nuestros productos. Al tiempo que aprovechamos su potencial en nuestras aplicaciones, mantenemos nuestro compromiso más que nunca con el desarrollo responsable y consciente.

Nuestro enfoque para la IA generativa con Adobe Firefly

Nunca entrenamos ni hemos entrenado Adobe Firefly con contenido de clientes.
Solo entrenamos Adobe Firefly con contenido del que tenemos permiso o derechos para hacerlo.
No extraemos contenido de la Web para entrenar Adobe Firefly.
Compensamos a la comunidad creativa que contribuye a Adobe Stock por el uso de su contenido para el entrenamiento de Adobe Firefly.
Defendemos los derechos de propiedad intelectual de la comunidad creativa que promueve la Federal Anti-Impersonation Right Act (ley federal sobre derechos antisuplantación de los EE. UU.).
No reclamamos ninguna propiedad de tu contenido, incluido el contenido que crees con Adobe Firefly.
Creemos en la protección de los derechos de la comunidad creativa y fundamos la Content Authenticity Initiative (CAI) centrada en garantizar la transparencia en la propiedad del contenido y la forma en que se creó.
Desarrollamos Adobe Firefly para evitar que creara contenido que infrinja los derechos de autoría o de propiedad intelectual, y su diseño es comercialmente seguro.
Prohibimos explícitamente a terceros el entrenamiento con contenido de clientes que se alojen en nuestros servidores (como Behance) y tomamos las medidas necesarias para evitarlo.

Icono de entrenamiento

Entrenamiento

La calidad de la IA depende de los datos con los que se entrena y los resultados que se consideran apropiados varían según el caso. Por esta razón, hemos creado conjuntos de datos específicos para responder a las necesidades de nuestras empresas y asegurar unos resultados heterogéneos y éticos adecuados para las distintas formas en las que se emplea la IA.

Icono de pruebas

Pruebas

Realizamos pruebas continuas y rigurosas de las funciones y los productos basados en la IA para mitigar los prejuicios y estereotipos dañinos. Esto incluye pruebas automatizadas y evaluación humana.

Icono de evaluaciones de impacto

Evaluaciones de impacto

Los equipos de ingeniería que desarrollan cualquier función basada en la IA envían una evaluación de impacto de la ética de la IA. Esta evaluación de impacto tiene varias partes y está diseñada para identificar funciones y productos que puedan perpetuar prejuicios y estereotipos dañinos. Esto permite que nuestro equipo de ética de la IA pueda centrar sus esfuerzos en las funciones y los productos con mayor potencial de impacto ético, sin ralentizarse el ritmo de la innovación.

Icono de supervisión humana diversa

Supervisión humana diversa

Una junta heterogénea y multidisciplinaria de revisión de la ética de la IA supervisa las funciones basadas en la IA con mayor potencial de tener un impacto ético. La diversidad de las trayectorias y experiencias, tanto personales como profesionales, es esencial para identificar posibles problemas con una variedad de perspectivas que un equipo menos diverso quizá no podría ver. Escucha a los miembros de nuestra junta en este vídeo.

Icono de comentarios

Comentarios

Proporcionamos mecanismos para aportar comentarios que permiten informar sobre resultados con posibles prejuicios, de modo que se pueda solucionar cualquier problema. La IA experimenta un desarrollo continuo y queremos trabajar con nuestra comunidad para seguir mejorando nuestros productos y herramientas para todo el mundo. Si tienes alguna duda o quieres informar de un posible problema relacionado con la ética de la IA, contáctanos.