Facebook 如何維護網路安全?身分被盜、兒童剝削、青少年霸凌、女性受騷擾的防治詳解

如果使用社群不再安全,使用者就會離開這個平台。
Facebook 安全亞太區安全政策主管 Amber Hawkes 今日在記者會分享 Facebook 透過政策、工具、合作夥伴與資源來提升網路安全的作法,並且鼓勵使用者參考主題專區中的指南與功能,避免憾事發生。
2019 年,Facebook 在安全方面投入了超過 IPO 當時的總營收 37 億美元。我們的內容審查員每天審查超過 200 萬則內容,在過去的幾年中,從事安全工作的人數增加了兩倍,達到超過 35,000 人。其中,約有 15,000 人是內容審查員。
Facebook 全球有約 500 個安全合作夥伴,在台灣則有與 iWIN、台灣展翅協會、兒童福利聯盟等組織合作。並且從 2009 年開始就成立安全諮詢委員會,讓個合作組織更新安全建議,iWIN 也有參與。
Facebook 的內容審核依照社群守則來規範,常見的危害安全內容包括暴力和犯罪行為、自殺和自殘、兒童性剝削、成人性剝削(包括未經同意分享私密圖像和性侵害)、成人裸露畫面和性行為、霸凌和騷擾、人口剝削(包括人口販運)、侵犯隱私權和圖像隱私權、仇恨言論、血腥暴力內容、殘暴和麻木不仁、冒充身分等。
Facebook 執行內容審查措施包括用戶檢舉 24 小時內會審查完畢,使用人工智慧技術來主動偵測內容,並且排序以供內容審查團隊審核,涵蓋約上千種語言,也會定期與在地團隊更新需要注意的議題。
Facebook 和 Instagram 也有提供一些工具/功能來幫助使用者阻絕騷擾等安全問題:
另外在新冠病毒防範以及情緒健康等面向,也有提供相關資源:
Facebook 要求用戶必須年滿 13 歲方可開設帳號,在某些司法管轄區中,這項年齡限制可能更高。
18 歲以下未成年使用者預設分享僅與朋友,且地點預設不分享。陌生成年人傳訊號遭過濾,且會限制未成年者個人資訊的可見度,能對未成年者投放的廣告類別也有限制。
在 Instagram 上還有針對字幕與留言的人工智慧辨識,若有冒犯他人文字會先提醒。
對於兒童性剝削、虐待、裸露,Facebook 政策採零容忍,會運用微軟研發的照片 DNA(PhotoDNA)技術,限制 Facebook 及 Instagram 平台上兒童性剝削相關圖像的傳散與分享。Facebook 會移除與兒童有不當互動的潛在帳號。
家長或法定監護人可以提出要求移除 13 歲以下兒童的相片或影片,並提供 Facebook 安全中心、霸凌防制中心、包含網路霸凌專區的 Instagram 安全中心 與 Instagram Community Portal 等資源。另外也有家長專區與 Instagram Tips for Parents。
Facebook 也與執法機關合作,透過美國國家兒童失蹤與剝削受理中心 CyberTipline 報案與分享資訊給各處在地執法機關。
Facebook 提供一系列的工具來篩選訊息以及檢舉,其他還有包含:
另外在報復性色情、惡意散布私密影像方面,Facebook 運用使用相片比對技術以及人工智慧主動偵測 Facebook 與 Instagram 上相關的內容。擔心自己的私密圖像可能在 Facebook 平台上散播的受害者,可以透過一個私人、安全且安心的管道提供 Facebook 這些內容去比對,Facebook 會保護這些內容並預防含有相關圖像的貼文,進而防止這些內容在我們的應用程式間流傳。
Facebook 也透過「不要就是不要」專區與「性勒索防治中心」提供許多工具及資源給尋求支援與資訊的用戶。
另外在肺炎期間,因在家時間拉長也造成家報案件上升,Facebook與聯合國婦女署、美國全國終結家庭暴力網絡(U.S. National Network to End Domestic Violence)及全球婦女安置網絡(Global Network of Women’s Shelters)合作,整理全球家暴受害者可使用的資源,並透過新冠病毒(COVID-19)資訊中心提供給需要協助的用戶。
核稿編輯:Anny