AI 科學家的怒吼!超過 1000 名專家譴責「臉部辨識預測犯罪」技術

專家批評,這類有偏見的演算法根本就是一種「監獄流水線科技」(tech-to-prison pipeline),目的是讓執法機構透過「假客觀」演算法的背書,為個人的偏見與暴力行為辯護。
評論
▲Photo Credit: Shutterstock/ 達志影像
▲Photo Credit: Shutterstock/ 達志影像
評論

在電影《關鍵報告》(Minority Report)裡,未來世界執法機構能預測何時、何地、何人會犯罪,及早埋伏並在他們犯下罪行前先逮補。而近期也有研究號稱可以透過臉部辨識「預測」潛在罪犯,結果引起大批 AI 科學家的怒吼,共同譴責這類研究!

「看臉」就能預測你會不會犯罪?

近期,美國哈里斯堡科技大學(Harrisburg University)發表一篇研究,結合機器學習和臉部辨識技術,聲稱可以「看臉」就預測這個人是否為潛在罪犯,並表示有高達 80% 準確率,且不具有種族偏見。

而總部位於德國柏林的出版社 Springer,也在即將推出的研究叢書中收錄該篇論文。由於 Springer 是知名的科學、技術與醫學領域書籍出版社,因此引起超過 1000 名來自哈佛大學、麻省理工學院、Google 以及微軟的 AI 人工智慧領域專家學者們共同撰寫一封公開信,大力反對。

根據 VICE 報導,這封公開信直接了當地指出,根本不存在所謂「能預測不具種族偏見的犯罪預測系統」,因為現有的刑事司法數據庫本來就充滿了種族主義。

舉例來說,因為警察有偏見,所以會更容易懷疑特定種族、族群,也讓這群人成為刑事數據資料庫的大宗;同樣地,因為法官有偏見,會更傾向判決某些人更重的判刑,也讓這群人成為司法數據資料庫的弱勢族群。

他們呼籲 Springer 撤回這篇論文,同時應該發表聲明譴責這類技術應用,並承諾未來不再發表類似的相關研究。

假客觀的演算法,其實是一套「監獄流水線科技」

這些 AI 專家學者們為何如此憤怒?因為這不是機器學習界第一次推出類似研究。前幾年,有研究論文聲稱可以藉由曾被定罪犯人的臉部數據,進行數據訓練並用演算法來預測未來犯罪行為。當時就有專家跳出來指責,說這只是建立一個「回饋迴路」(feedback loop),進而強化那些在執法和司法程序上容易被邊緣化並歧視的族群,例如:非裔族群等。

在「George Floyd 之死」事件後,針對種族主義、警察執法過當的抗議活動也在全美延燒。專家們因此批評,這類有偏見的演算法根本就是一種「監獄流水線科技」(tech-to-prison pipeline),目的是讓執法機構透過「假客觀」演算法的背書,為個人的偏見與暴力行為辯護。

除了專家學者,科技公司們也都意識到危險性。因此,日前 IBM 宣布將永久退出臉部辨識業務,而亞馬遜未來一年內,也將暫停供應執法機構臉部辨識系統。

畢竟,人類無可避免地會有偏見,也導致所產生的數據容易有偏見;一旦將這些數據視為「真理」,那只是創造一個弱弱循環的悲慘世界。

核稿編輯:Mia

延伸閱讀: