

善用 iCloud 雲端備份的老司機們要注意了!蘋果在昨日官方網站最新貼文指出,未來將會審查、掃描在 iCloud 雲端上的照片,來防止兒童色情圖片傳播的問題。這項功能將套用在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 近期的版本更新,該審查系統「NeuralHash」以美國國家失蹤與受虐兒童中心(NCMEC)提供的數據做比對,若查核屬實將把該 iCloud 帳戶擁有人送交 NCMEC 及執法部門審理。
蘋果將以 NeuralHash 審查 iCloud 雲端照片是否有兒童色情疑慮
蘋果這次推出的 NeuralHash 審查系統是為打擊 CSAM(兒童性虐待素材)傳播,這項更動將套用在最新 iOS 15 作業系統。其中部分 iCloud 使用者質疑是否往後所有的照片放上雲端,都會被蘋果給看光光?蘋果表示當備份照片到 iCloud 雲端時系統不會自動開始掃描,而是當滿足特定的 CSAM 偵測值、加密憑證才會啟用,但其實蘋果早在電子郵件功能就採用「雜湊演算法系統(Hashing System)」來確保信件內容沒有帶兒童色情的圖片。
這項 NeuralHash 審查系統蘋果釋出了版本 1、版本 2、版本 3 共三份文件,由審查系統技術團隊分享部分 NeuralHash 運作原理,蘋果這次審查系統更新並未公布其合作夥伴是誰,一方面是為了避免該系統及技術被中國利用,因為中國政府長期想掌握中國國民的 iPhone 使用者數據。
除了 iCloud 的相片審查,蘋果另外新增了 2 項功能強化兒童色情傳播的問題,iMessage 應用程式將對兒童帳號附加相片審查功能,當檢測到發送、收到的圖片有異時會模糊處理並出現警示,父母的 iCloud 帳號也會收到通知達到雙重保護。
蘋果現今正著手研究避免 SIRI 出現語音搜尋兒童色情的問題,並告知搜尋使用者其行為是有害、有風險疑慮,SIRI 的更新將有機會套用在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey。
蘋果在 iCloud 雲端的照片都有設定一組特殊的「安全憑證」
前述有提到,蘋果並不會主動掃描所有使用者上傳到 iCloud 的照片,而是滿足特定的 CSAM 偵測值、加密憑證才會啟用,CSAM 的運作方式的其中一塊就是會去撈取上傳照片的安全憑證,若該憑證有疑慮才會進行照片掃描、確認其內容並回報。
現今早已有許多雲端服務公司如 Dropbox、Google 和微軟,會針對使用者可能違反其服務條款或潛在非法的內容進行掃描。然而蘋果先前未涉入使用者的雲端資料,並開放其加密自己文件的作法突然做出大改動,讓不少蘋果使用者對這項措施表達不滿,另有一些安全專家呼籲在 Apple 向使用者推出該技術之前應該進行更多的公開討論。
This thread is worth a read. @matthew_d_green explains very nicely why Apple’s move to include a CSAM tool on your phone might be a double edged sword: the road to hell is paved with good intentions. A little more public discussion is in order IMHO. https://t.co/EhIZYRUMbN
— Alan Woodward (@ProfWoodward) August 5, 2021
不過蘋果此舉也引起不少人擔憂,認為蘋果之前不斷強調自家產品服務非常注重隱私,但一旦開啟先例,就會跟政府持續合作擴大範圍,讓政府實質上監控一切。
核稿編輯:Chris
延伸閱讀:
- 【行銷科技玩家聚】隱私權意識高漲後,對Facebook 廣告的實際影響
- Google 免費雲端空間不足?官方推「儲存空間管理工具」雲端硬碟一鍵瘦身
- 【硬塞 IG 研究室】美國 44 州總檢察長致函祖克柏 臉書列入優先開發的「兒童版 IG 」有什麼問題?