
人類教壞 AI?Google Imagen 繪圖模型主動過濾有害內容

最近大眾流行的 Midjourney 再度帶起了一波 AI 繪圖的熱潮,不過知名 AI 計畫 OpenAI 在 4 月也公布了技術力高超的 DALL·E 2,Google 實驗室則是在 5 月份發表了 Imagen,而且不僅在各項 AI 繪圖指標上優於 DALL·E 2,於真人評比結果也勝出。
雖然不論是 DALL·E 2 還是 Imagen 都仍存在研究階段而未對大眾開放,不過以目前成果來看,Imagen 的繪圖精確度以及完整度都相當驚人,就算說是刊在國家地理雜誌,其圖像品質也幾可亂真。
不過仔細看 Imagen 的研究報告頁面就可以發現,不少選圖都是主打可愛動物,比如穿著廚師制服的熊貓,或是帶著王冠的浣熊,不過理應有大量圖像資料的人臉卻一張都沒有。可以理解一大部分可能是出於宣傳考量—— 畢竟誰不愛無害又沒爭議的小動物,但一旦放上人臉,就不得不考慮種族、性別等爭議元素。

但是這些圖像都溫馨無爭議的另一主因,就是這結果呈現出 Imagen 其實過濾了大量「有害」的關鍵字。在 Imagen 的說明裡面就有寫到,訓練 AI 的資料除了過濾掉不必要的雜訊,也導入不適當內容資料庫「LAION-400M」,以主動剔除色情、種族歧視、有害的刻板印象、侮辱性描述等內容。
根據 Google 實驗室的說明資訊,Imagen 倚靠大量的網路詞語訓練並將之轉譯為圖像,若沒有適當的防護措施,無可避免地會學習到社會中的有害內容,這也是為什麼 Imagen 未對大眾開放的原因。
OpenAI 的語意辨識與文字產生 AI GPT-3 也是一樣,寫明了基於網路資料訓練的模型會繼承並產生偏見,這點也寫在 Google 的AI 語言模型 PaLM 和 OpenAI 的 DALL·E 2 的道德準則裡面。如果不禁止有害內容,AI 從廣大網路資料學習之後就會繼承人類世界的惡意內容與偏見,因此最有效的方法是限制模型的使用。目前 DALL·E 2 僅提供給少量特定使用者,而 Imagen 是完全沒有開放的打算,就算開放給大眾使用的 Midjourney,也開始封鎖可能會產生有害內容的詞彙。
要如何讓 AI 語意模型以及製圖 AI 真正成為人人都能取用的工具,同時要避免 AI「學壞」,我們還需要更多研究。
核稿編輯:Chris
加入 INSIDE 會員,獨享 INSIDE 最精采每日趨勢電子報,未來還有會員專屬內容。 點擊立刻成為會員!
延伸閱讀:
- 具現化的夢!Midjourney AI 算圖工具將文字變畫作
- 微軟新專利:跟《黑鏡》一樣的模擬真人聊天 AI!
- 學者發現:AI 如小孩模仿父母般,會學到既有偏見、歧視
- AI 也「臉盲」!臉部辨識有偏見、誤認率高,美議員呼籲川普別擴大採用
- 【Wired 硬塞】AI 有偏見,但科學家想用這招破解
- 【從紀錄片窺探】《編碼偏見》:演算法並非中立,而是固化人類社會的缺陷