

《華爾街日報》上週日的最新文章中指出,臉書透過 AI 抓取到的仇恨言論內容比例其實只有 2% 左右,而且從臉書內部流出的文件發現,臉書已降低人工審查的時間配比,並把多數資源投注在 AI 自動言論審查上。
但臉書近期在官方部落格中表示,在臉書上流傳的仇恨言論相比 Q3 以前下降約 50 %,亦即代表臉書對仇恨言論的審查及技術發展,已經擁有一定程度的能力。
但在報導中不具名臉書工程師表示,除非臉書特別調整戰略方向,不然要讓 AI 抓取篩選臉書仇恨言論的比例至 10% 到 20% 都很困難。
不具名工程師指出,臉書 AI 言論審查系統成績並沒有官方表述的那麼好
在華爾街日報的報導曝光後,臉書誠信部門副總 Guy Rosen 特別針對這項報導在官方部落格中提到:「在過去三年內在臉書上流傳的仇恨言論已下降 50%,那些說我們打擊仇恨言論技術不足的言論,是故意在歪曲我們的進步」。

但臉書一名員工自 3 月發現到,其 AI 言論審查系統成功下降仇恨言論的比例只有約 3 到 5% 而已,抓到全部違反臉書言論審查制度的內容也才 1% 左右,所以會被華爾街日報踢爆指出臉書 AI 言論審查系統名不符實,其實有跡可循。
不過從臉書 Q2 的公開資料內容中進一步了解,臉書每筆 10,000 瀏覽人次的內容平均有 5 筆仇恨言論相關字詞,相比 2020 年的 10 筆仇恨言論次詞來看是有改善的,但差別在於是臉書真的有把成效灌水,還有華爾街日報為何特別針對此事特別報導?
自 2016 年以來,臉書在安全和防護上花費近 130 億美元,佔臉書總營收的 4%,所以臉書並不是沒有在言論審查上付出努力,再來早先臉書人工審查機制是因為多數舉報人為臉書使用者,現今臉書撤裁部分人工作業轉往 AI 言論審查,很大的可能是來自每週需要花費 200 萬美元、每年 1.04 億美元的鉅額成本的緣故,而且人力部分就吃掉 75% 的預算。
目前言論審查制度與系統最大的挑戰在於多國語言和每個國家、地區的生活用語習慣,要怎麼判斷這些話語跟仇恨言論關?像前陣子推特就有來自塔利班激進份子宣揚塔利班的軍事行動,要怎麼拿捏這些介於軍事、言語暴力、多國語言間的仇恨內容,才是 AI 言論審查系統需要面對的真正問題。
責任編輯:Archer
核稿編輯:Chris
延伸閱讀: