AI 清理 Youtube 非法影片, 比人類快速兩倍且更精準!

評論
評論
Photo Credit:reuters

本篇來自合作媒體 雷鋒網 ,INSIDE 經授權後轉載。

據外媒近日報導,Google 公開表示,將繼續使用機器學習開發高級程序,以打擊極端主義內容。經過一段時間的實測表明,AI 比人類可以更快更精準的清理 YouTube 上的非法內容。

7 月上旬,Google 正式發佈人機協作計劃—「PAIR」(People + AI Research)。據了解,該計畫由 Google Brain 的研究員 Fernanda Viégas 和 Martin Wattenberg 領導,二位都是開發複雜訊息可視化技術的專家。其目的在於保證 AI 技術對每個人都有益處,並專注為 AI 開發者提供新工具。

而落實到 YouTube 上,則為這樣的分工模式。即讓機器學習和人類審查人員分工合作,作為跨部門途徑的一部分,以解決 YouTube 上的極端主義和爭議性影片的內容傳播。在此其中,還包括為影片設立更嚴格的審核標準,以及聘請更多人力對需要審核的內容進行標記。

在該計劃發布一個月後,英國內政部部長 Amber Rudd 向美國科技公司一再呼籲,為打擊極端主義內容的興起,大家還需做更多工作。Google 旗下 YouTube 向外表示,該問題利用機器學習系統已經得到很大的改善。

YouTube 發言人表示,雖然這些工具並不完美,也並不匹配所有設置,但是使用過程證明,該系統比人類更能準確的標出需要刪除的影片。

最初我們使用機器學習來排除暴力極端主義內容,數據表明是人類排除數量的兩倍。而在減少此類內容的速度上,機器同樣是我們的兩倍。過去一個月內,有超過 75% 的暴力影片內容被清理。

該公司表示,YouTube 目前在監管非法內容遇到的一個問題在於,用戶上傳的內容正以每分鐘 400 小時的速度進行,這項可怕的數據將對實時過濾極端主義內容產生巨大的挑戰。

YouTube 還表示,目前,他們已經和 15 個 NGO 和機構合作,包括反誹謗聯盟、無仇恨言論運動(the No Hate Speech Movement)和戰略對話研究所,以提高系統對這些議題、仇恨言論、激進和恐怖主義內容的理解,以便更好的處理這些內容。

接下來幾週內,Google 將對影片內容執行更嚴格的標準,這些影片可能是令人反感但又不違法的。該公司表示,YouTube 上雖然有些影片內容被標記為不適當,如含有爭議性的宗教主義內容等,但其並不違反公司對仇恨言論或暴力極端主義的政策的,將被置於「被限制的區間」。

如何處理這些內容?一位 YouTube 發言人對此表示,這些影片依然會留在 YouTube 的插頁式廣告中,不會被推薦,也不會有盈利,更不會有評論、推薦、喜歡等關鍵功能。

作為預防激進主義的一部分,YouTube 也開始對某些影片頁面的特定關鍵詞進行重新定向搜索,這些頁面直達暴力極端主義內容。

此外,Google 方也表示將繼續開發機器學習技術,並以其他技術公司合作處理網絡上的極端主義言論。

評論