AI 科學家的怒吼!超過 1000 名專家譴責「臉部辨識預測犯罪」技術

專家批評,這類有偏見的演算法根本就是一種「監獄流水線科技」(tech-to-prison pipeline),目的是讓執法機構透過「假客觀」演算法的背書,為個人的偏見與暴力行為辯護。
評論
▲Photo Credit: Shutterstock/ 達志影像
評論

在電影《關鍵報告》(Minority Report)裡,未來世界執法機構能預測何時、何地、何人會犯罪,及早埋伏並在他們犯下罪行前先逮補。而近期也有研究號稱可以透過臉部辨識「預測」潛在罪犯,結果引起大批 AI 科學家的怒吼,共同譴責這類研究!

「看臉」就能預測你會不會犯罪?

近期,美國哈里斯堡科技大學(Harrisburg University)發表一篇研究,結合機器學習和臉部辨識技術,聲稱可以「看臉」就預測這個人是否為潛在罪犯,並表示有高達 80% 準確率,且不具有種族偏見。

而總部位於德國柏林的出版社 Springer,也在即將推出的研究叢書中收錄該篇論文。由於 Springer 是知名的科學、技術與醫學領域書籍出版社,因此引起超過 1000 名來自哈佛大學、麻省理工學院、Google 以及微軟的 AI 人工智慧領域專家學者們共同撰寫一封公開信,大力反對。

根據 VICE 報導,這封公開信直接了當地指出,根本不存在所謂「能預測不具種族偏見的犯罪預測系統」,因為現有的刑事司法數據庫本來就充滿了種族主義。

舉例來說,因為警察有偏見,所以會更容易懷疑特定種族、族群,也讓這群人成為刑事數據資料庫的大宗;同樣地,因為法官有偏見,會更傾向判決某些人更重的判刑,也讓這群人成為司法數據資料庫的弱勢族群。

他們呼籲 Springer 撤回這篇論文,同時應該發表聲明譴責這類技術應用,並承諾未來不再發表類似的相關研究。

假客觀的演算法,其實是一套「監獄流水線科技」

這些 AI 專家學者們為何如此憤怒?因為這不是機器學習界第一次推出類似研究。前幾年,有研究論文聲稱可以藉由曾被定罪犯人的臉部數據,進行數據訓練並用演算法來預測未來犯罪行為。當時就有專家跳出來指責,說這只是建立一個「回饋迴路」(feedback loop),進而強化那些在執法和司法程序上容易被邊緣化並歧視的族群,例如:非裔族群等。

在「George Floyd 之死」事件後,針對種族主義、警察執法過當的抗議活動也在全美延燒。專家們因此批評,這類有偏見的演算法根本就是一種「監獄流水線科技」(tech-to-prison pipeline),目的是讓執法機構透過「假客觀」演算法的背書,為個人的偏見與暴力行為辯護。

除了專家學者,科技公司們也都意識到危險性。因此,日前 IBM 宣布將永久退出臉部辨識業務,而亞馬遜未來一年內,也將暫停供應執法機構臉部辨識系統。

畢竟,人類無可避免地會有偏見,也導致所產生的數據容易有偏見;一旦將這些數據視為「真理」,那只是創造一個弱弱循環的悲慘世界。

核稿編輯:Mia

延伸閱讀:



【AWS 新創系列】QUICKSTART 開發者示範工作坊

專為初步瞭解雲端以及 AWS 初學者舉辦的手把手示範教學課程,內容將涵蓋對 AWS 的簡單介紹和 AWS 核心服務的使用,資源和服務的訪問權限管理服務 ,並實機展示如何利用這些基礎服務在虛擬機、備份和恢復數據等等。
評論
Photo Credit:TNL Brand Studio
評論

立即報名工作坊

本課程為期一天,專為初步瞭解雲端以及 AWS 初學者舉辦的手把手示範教學課程,內容將涵蓋對 AWS 的簡單介紹和 AWS 核心服務(例如 Amazon S3,Amazon EC2)的使用,資源和服務的訪問權限管理服務 AWS Identity and Access Management(IAM),並實機展示如何利用這些基礎服務在虛擬機、備份和恢復數據等等。

此課程適合剛註冊 AWS 帳戶的開發者,您將從此活動學習到以下示範的實作內容:
· 如何建立 AWS 帳號及安全的設定存取權限
· 如何將網站從 On-premise 上雲後,架設簡單, 安全的三層式架構(Web, Application, Database)
· 如何妥善管理雲端環境和追蹤存取狀況
· 利用 Billing Alarm 有效配置雲端服務容量

適合對象:
此課程適合各種程度的聽眾,推薦參加對象為: AWS 開發者、DevOps 管理人員、系統管理者及對 AWS 架構欲深入了解的新創團隊。

活動講師:
AWS 架構師團隊

活動資訊:
日期:2021.5.18(二)
時間:10:00-17:00

立即報名工作坊