AI 維護社群和平?臉書辦記者會解釋 AI 如何左右內容審查

AI 幫助人類團隊進行自動審查,以及建立起審查的優先排序,讓團隊可以更加快速進行決策。
評論
Photo Credit: REUTERS/達志影像
Photo Credit: REUTERS/達志影像
評論

臉書於台灣時間昨日(17 日)下午發布「Facebook 運用 AI 執行社群守則」線上記者會,邀請來自 Community Integrity 部門的工程師  Chris Palow 與產品經理 Ryan Barnes,針對 AI 如何被應用且執行社群守則,以及影響內容審查、演算法的議題,做出說明與解釋。

臉書如何使用 AI

工程師 Palow 首要說明 AI 如何被應用。首先,工程部門會先將有害的內容(即需要被審查出的內容)與正常的一般內容,同時餵給機器學習,讓機器學會去分辨哪些社群內容是違反規範的,並且使之自動貼上標籤,提供一份清單給人類團隊做進一步的分析,看是否真的有問題。

「雖然沒有百分之百的正確率,但目前為止團隊覺得都還蠻準確的。」Palow 坦率地說。

臉書的內容審查架構

臉書總共有三個部分一起協力推動平台安全:內容政策組(content policy)、社群誠信組(community integrity)、全球營運組(global operation)。內容政策組負責制定社群規範,邀請各個領域、多元議題的專家學者協助設立正確、全面的條例,例如孩童安全、反恐、人權等。全球營運組負責執行這些被制定好的社群規範,主要以人力的方式,15,000 位內容審查員全年無休、全天候進行檢視服務。而最後是社群誠信組,以 AI 技術去協助內容審查更全面、更有效率。

減少使用者不良體驗的盛行率(Prevalence),包含為有害內容及濫權的使用者做出主動且實際的規範行動。

這就是社群誠信組的使命,希望能用積極、主動、快速的方式,去喝止對平台使用者有害的不良行為。當然,也希望偵測錯誤的機率可以降低。Barnes 坦言,色情內容很明顯,因此可以不出數秒就能被偵測到。但例如仇恨言論的內容難以偵測,因此較容易有犯錯的問題。

Barnes 進一步解釋何謂「盛行率」(Prevalence):接觸到不良內容的發生機率。計算方式就是將其觸及率、觀看率,除以平台上所有內容的觸及率、觀看率,即可得此盛行率。通常會以「取樣」方式來進行,以計算盛行率。

因此,盛行率成為衡量有害內容在平台上擴散的指標性數據。而社群誠信組也已降低有害內容的盛行率為組織目的。

AI 如何協助臉書執行內容審查

十年的改變

這十年間,臉書的內容審查有相當巨大的改變。過去,臉書較仰賴使用者的主動舉報,舉報後再由人工的方式去徹查是否違規。而現今,審查管道除了舉報之外,臉書會透過 AI 科技先進行一輪自動審查,再由人工雙重確認是否違規,增加效率。

根據臉書於記者會中提供的數據,AI 自動審查的準確率平均可達 95%,絕大多數被移除的內容都是主動偵測而發現的,相當厲害。但在霸凌和騷擾的準確率,卻只有 13.3%,可見這類內容具灰色地帶,且容易被在地化因素左右,讓機器仍無法準確預防。

建立優先排序

不論過去和現在,最終都還是需要人工檢查。AI 除了先進行自動審查外,還幫助人類團隊先做「優先排序」,提升決策效率。依照不同的差異將有可能違規的內容,進行過濾與排序,而決定差異的因素有三:

  1. 傳播性(Viralty):觸及率越高、越快被大眾瘋傳的內容,會優先進行審查,以免有害或錯誤的資訊被快速擴散出去。
  2. 嚴重性(Severity):臉書強調他們非常重視「真實世界的傷害」,因此若造成的傷害越大,越會將排序往前調整。
  3. 確定有害的可能性(Likelihood of violation):有些內容很明顯就是有害(例如色情圖片),但很多內容存在灰色地帶,無法直接分辨是否真的需要被撤除,這時就需要這樣的衡量標準,幫助人類快速先撤除確定有害的內容。

總而言中,臉書運用 AI 科技,先進行自動審查,再配合上述因素,排序優先順序,加快內容審查的效率與速度,針對最有害的內容快速止血,將傷害降到最低。

而 AI 也變得更加聰明,在審查中加入了一款名為XLM-R 的自有開發新技術,先用某個語言來訓練 XLM-R 的模型,再將它直接套用到其他語言,可同時理解多種語言的文字,加強準確度。

Facebook 也開發了 Whole Post Integrity Embeddings(WPIE)的技術。簡單來說,這項技術會檢查貼文的完整內容,讓 AI 去理解語境脈絡(context),而非單一圖像或文字,使審查更加準確。

對社群的好處與壞處

AI 協助人類團隊,讓人類團隊可以有更多時間去決定最複雜的決策,讓簡單、容易被辨認的有害內容在第一時間就被檢測出來,大幅節省時間。也培養機器學習有害內容的潛在趨勢,以整體的角度去監測流行的不良內容為何,讓團隊可以提早做出預防。

但因為各地文化有所不同,就算有放諸四海皆準的社群守則,某些內容是否對當地民眾造成傷害,也無法使用 AI 快速辨認,因此在這一塊還是需要在地人力去執行,並且致力於將 AI 模型建構地更加在地化,以因應不同語境下的傷害。

除此之外,AI 還有其他隱憂。對比人類律法的無罪推定,AI 審查是否會有未判先審的問題?臉書在記者會中提到,AI 能自動找到恐怖份子組織成員的臉書,並且優先標記甚至關閉帳號,像這樣權限的疑慮,也值得深思。

另外,機器學習跟 AI 演算仍然像是個黑箱子,隨著人類團隊越來越依賴 AI 自動審查的結果,再來進行人工決策,那機器如何學習?仰仗甚麼樣的資料庫進行學習?都是重點問題,仍需大眾與第三方團體持續監督。

核稿編輯:Anny

延伸閱讀:




精選熱門好工作

客服⼯程師

萬欣網路科技有限公司
臺北市.台灣

獎勵 NT$15,000

電商平台軟體開發員 - Software Engineer - Web

皇博數位有限公司
高雄市.台灣

獎勵 NT$15,000

資訊系統高級工程師-台北

科毅研究開發股份有限公司
新北市.台灣

獎勵 NT$15,000