在生成式 AI 的時代進行負責任的創新
我們使用 Adobe Firefly 進行生成式 AI 的方法建立在我們的產品十多年來陸續整合 AI 的經驗。隨著我們在各項應用程式中運用其強大功能,我們比以往更致力於審慎、負責任的開發。
我們對 Adobe Firefly 生成式 AI 的做法
人工智慧倫理的實際運作
在秉持問責制、負責且透明的人工智慧倫理原則引導下,我們建立了從設計、開發一直到部署的標準化流程,包括訓練、測試,並由多元成員所組成的人工智慧倫理審核委員會監督審查流程。
訓練
人工智慧的優劣取決於用來訓練的資料,而不同的使用案例則會決定結果適當與否。為此,我們建立了專為滿足各種業務需求的資料集,以確保產生的結果多元且符合倫理,並適合使用人工智慧的方式。
測試
我們會對人工智慧支援的功能和產品持續進行嚴格的測試,以降低有害的偏見和刻板印象。測試方式包括自動化測試和人為評估。
影響評估
只要是開發人工智慧支援功能的工程師,都須提交一份人工智慧倫理影響評估。這份影響評估會分成多個部分,旨在找出可能會留下有害偏見和刻板印象的功能和產品,並可讓我們的人工智慧倫理團隊將心力集中可能會對倫理造成最大影響的功能和產品,無須放慢創新速度。
多元化人為監督
可能對倫理造成最大影響的人工智慧支援功能,會經過由多元且跨職能成員組成的人工智慧倫理審核委員會進行審查。如果要從各種觀點找出潛在問題,多元的成員組成以及各種專業背景和經驗至關重要;如果團隊的多元化程度較低,可能就無法發現這些問題。聽聽我們的委員會成員怎麼說:觀看影片。
意見回饋
我們提供意見回饋的機制,讓使用者在輸出結果可能存在偏頗時可以進行回報,以便我們補救任何問題。人工智慧是持續不斷的旅程,我們希望能夠與社群合作,繼續讓我們的工具和產品變得更適合每個人。如果您對人工智慧倫理有任何疑問,或想要回報可能的人工智慧倫理問題,請聯絡我們。