【從紀錄片窺探】《編碼偏見》:演算法並非中立,而是固化人類社會的缺陷

自製專題

評論
評論

「人類跟我分享的越多,我就學得越多。」

大家有想過,生活中什麼時候會碰到演算法嗎?突然被問你可能會腦袋空白,演算法看似抽象,但早已浸淫在人類社會的每個角落了。每天早上醒來滑臉書,是演算法推播你喜歡的內容給你的。疫情在家閉關叫外賣,外送 App 呈現的餐廳與菜單也是演算法。更不用提那些仰賴演算法工作、生存的新興職業...。演算法不僅可以幫助我們更快做好運算,其實,演算法已經與我們的生活無法脫勾了。

這麼重要的演算法,如果它不客觀、不公正,並且還有重要紕漏的時候,重度仰賴演算法的我們又該如何因應呢?

《編碼偏見》(Coded Bias)就是一部在討論演算法歧視的紀錄片。

Data is destiny.

紀錄片由麻省理工學院的科學家喬.布蘭維尼起頭,當她在研究電腦視覺技術的時候,察覺人臉辨識的演算法存在準確度的強烈差距。身為黑人女性的她,發現人臉辨識系統怎麼樣都辨識不出自己的臉,起初布蘭維尼還以為是和燈光或外在因素有關,結果布蘭維尼戴上一個白色人臉面具測試後,才發現系統辨識失敗的原因是——她是黑人!

未命名
科學家喬.布蘭維尼。

布蘭維尼著手進行研究,她比較了微軟、IBM、Google、Face++ 開發的人臉辨識系統,發現都存在這一樣的通病:男人辨識成功的準確率高於女人,而膚色淺者的準確率高於膚色深者。

布蘭維尼得到了一個結論,演算法是個歧視主義者。

為什麼會出現偏見?

科技的誕生來自一小群非常類似的人

不難想像,AI 領域一直都是由「白人男性」在主導著世界上科技發展的走勢。AI 的出生來自於 1956 年位於達特茅斯學院數學系所舉辦的一場研討會,在當時,大約只有 100 人在研究 AI,而這寥寥無幾的科學家,幾乎就決定了整個 AI 發展的走向。從電腦在西洋棋比賽中贏得人類棋手,再到如今的臉部辨識、大數據演算,這一路的發展大部分都是從一位又一位的「白人男性」中接棒傳承。

當然,我們並不是要否定這些科學家對世界的貢獻。而是由此可知,當技術物由一小群背景非常類似的人發明時,勢必會產生許多的視角缺失。這也是為什麼臉部辨識總在白人男性的臉上,成功率最高的鐵證之一。

數據是人類給的,而人類有缺陷

演算法是由科學家投入大量數據給系統,讓它自己分類、標籤、學習,而產生自動化決策的過程,利用過去的經驗來預測未來。而這些大量數據的源頭?全部來自於過去數十年的累積——包含了難以抹滅的黑歷史。

我們都知道 1960 年代馬丁.路德.金恩博士在街頭說著「我有一個夢想」,1980 年代美國城市還正在執行有種族隔離意味的土地使用分區辦法,而這些歧視事件距今也不過幾十年。科學家把人類數百年的陋習,包含種族歧視、性別歧視等社會偏見「教」給了 AI 演算法,彷彿套上「科技」一詞所有的東西瞬間就變得客觀中立,但事實上仍存在著各種的人性偏誤。

無所不在的演算法

《數學毀滅武器》作者凱西歐尼爾表示,演算法議題最讓人擔心的是「權力」,誰擁有演算法就可以控制結果,因為演算法的普遍應用,結果往往會對人類的命運帶來影響。而演算法沒有上訴機制,也無法將運作透明化,宛如黑盒子,無法問責。

例如被銀行的演算法評定為「信用分數不夠」的借貸者,真的就像系統所說的那樣不值得信任嗎?否決的原因如何證明,又如何上訴。而區區一個個體,又怎麼樣能與跨國大企業使用的演算法抗衡呢?

另個例子,許多科技公司的面試流程加入了演算法,做自動化履歷篩選,為人類人資省去許多麻煩。但後來發現,篩選出來的履歷中,女性比例竟然幾乎為零!原來是因為科技業的高層主管中,女性的比例低於 14%,因此 AI 看到「性別女」、「女子大學」,甚至「女子球隊」就會自動評低分,如此性別歧視的舉動,令人瞠目結舌。

coded-bias-3
在片中,人臉辨識成為房東監管布魯克林中低收入社區大廈的工具,掃臉便知你有沒有欠繳房租、有沒有亂丟垃圾...使不少居民出聲抗議。

演算法如何控制社會

臉部辨識也被積極運用在政府與警方維安時的手段。在片中,鏡頭就直接拍到英國街頭上,有 14 歲的黑人青年因為被人臉辨識評為「危險」,而被便衣警察團團圍住的景象。也有男子因為路過攝影機故意蒙面、不想被辨識,而吃上罰單。為什麼犯罪徵調中,指紋、DNA 都必須按照正常行政手續才能合法取得,但是「人臉」卻不須法理依據,就能隨意被取用呢?

除了西方世界,中國也是赫赫有名高度使用臉部辨識的大國。在中國,連出門購物都可以「刷臉」付款,政府以「方便」之名行「監控」之實,將「老大哥」式監視發揮得淋漓盡致。如果你的信用分數不夠高,透過臉部辨識就能禁止你搭乘交通運輸工具。而片中的中國公民也說,信用分數會影響她交朋友時的觀感與態度,彷彿《黑鏡》中的信用評分機制真人化。

除了監控之外,演算法同時也左右了你做決定的依據,以及影響個體的世界觀。Facebook 早在 2010 年以 6100 萬名用戶做了個實驗,Facebook 在投票日當天加了一串已投票的朋友頭像,以及一句話「...位朋友已經投票」。此舉竟然影響了 30 萬美國公民前去投票,要知道,2016 年美國總統大選僅差 10 萬餘票就能翻轉結果,而 Facebook 竟能神不知鬼不覺地號召人們去投票。不難讓人聯想,如果 Facebook 被買通、有政治立場,豈不就能左右選舉結果?事實上也確實有類似事件發生,川普在 2016 年當選總統後,就被爆出俄國花了十萬美金(約 300 萬台幣)散播假消息,試圖影響選舉。

布蘭維尼的努力終將帶來成果

布蘭維尼針對演算法歧視的研究被各大媒體刊出,科技巨頭們也不得不面對,最終還因此上了法庭,以法律角度來裁定演算法的適當性,以及是否因此來造成壟斷之嫌。最終,亞馬遜於 2020 年 6 月宣布未來一年暫停向警方提供人臉識別之技術,同月,美國國會立法禁止聯邦政府使用人臉辨識技術來監控民眾。雖然美國尚未針對演算法做出立法動作,但以法律角度來看,演算法的不公正以及侵害人權實屬確證罪鑿。

當然,演算法帶來便利的生活,這些運算不僅能帶領人類走向更前端的科技發展,也省去日常中不少數據的歸類與整理。演算法依舊是好用又快速的工具,只不過在相信「黑盒子」之前,多帶一些懷疑的論調去質疑它的公正性,以及權力掌握的脈動。或許我們很難完全脫離科技巨獸的掌控,但至少做個清醒的消費者,有能力在必要的時候出聲反抗,讓演算法成為人類社會的助手,而不是監管的打手。

核稿編輯:Mia

延伸閱讀: