人權在網路世界中危機重重?演算法掌控社會的隱私與歧視挑戰

在我們每天賴以維生的網路,也存在著科技的人權侵害?2020 網路治理論壇(TWIGF)請到法律學術研究與業界專家,一同探討演算法社會下網路人權的現狀與挑戰。
評論
Photo Credit: Pixabay
Photo Credit: Pixabay
評論

在 2020 網路治理論壇(TWIGF)中,數位人權是被與談人一直提到的命題之一,更特別設一議程「演算法社會下網路人權的現狀與挑戰」,請到法律學術研究與業界專家,討論在網路世界下的人類使用者,可能因隱私侵犯、演算法偏見等問題,遭受人權上的侵害。

推薦閱讀:2020 台灣網路治理論壇今開幕,數位人權成重要命題!

隱私在科技下無所遁形

IMG_4689
工作坊「演算法社會下網路人權的現狀與挑戰」。

根據中央研究院法律所博士後研究學者林昕璇的分享,AI 監控與人臉辨識是否符合憲法定義下的人權維護,一直是法律界討論的議題。根據卡內基國際和平基金會(Carnegie Endowment for International Peace)於去年發布的報告顯示,猶如科幻小說《1984》的預言,人臉辨識已成威權國家是常用的工具。

不只極權國家,事實上 51% 的民主國家也會使用人臉辨識,作為實現智慧城市與智慧型警政(smart policy)願景的工具。例如在英國南威爾斯(South Wales),當地警政就以自動化臉部辨識(AFR locate),在當地的大型集會中,找尋潛在公共危險的嫌犯。他們使用監視器(CCTV)檢視,當 AI 做出「符合」的判斷後,將此資料送往人類分析員判斷,再根據判斷考慮是否發動進一步的盤查。

此舉被地方法院起訴,認為地方警政機關違反歐洲人權公約第八條,即保障私人生活、隱私、通信的權利,特別是第八條第一項的生物特徵,地方法院主張生物特徵(人臉)擁有內在隱私性(intrinsically private)。

這被延伸出另個爭議:AI 從犯罪統計資料庫中,找尋潛在的「罪犯」,這是否也涉及 AI 演算法的科技歧視呢?

演算法的黑箱,放大歧視?

林昕璇質疑,演算法恐透過人類編碼員,重塑種族主義的回饋迴路(feedback loop),讓科技不再中立,而是複製,甚至加重的人類社會的歧視。

我們可以先瞭解,演算法是如何運作的。要知道一名人類是否為恐怖份子,你得先輸入或辨別他的基本資料,例如「他是男性」、「他造訪過阿富汗」、「他是穆斯林」、「他在社群上有潛在危險發言」,透過權重、權重矩陣和各類隱藏層的決策因素後,機器就可辯駁為:他是恐怖份子!

這裡我們看見兩個隱憂。第一,造訪過阿富汗的穆斯林就一定是恐怖份子嗎?這樣的判斷未免過於絕對,隱藏著種族歧視的危機。第二,中間隱藏層的決策因素為何?演算法的黑箱讓人霧裡看花,好像那些科技龍頭總是可以一手遮天,只告訴你答案,卻不公開計算過程,讓監督與審核更加困難。

與談人何明暄分享一個案例,因為今年疫情關係,全球學生無法出門參與大考,因此英國決定以演算法來決定學生的成績,以及他們能上哪一所大學。但這套演算法的評量結果,與老師推算的成績,居然有約 4 成學生的成績不同,所以被受到社會質疑。

老師與學生更進一步發現,來自私立學校學生的演算法評分與老師的評分較接近,但公立學校學生的成績卻會被演算法低估,權重被調低。此舉涉嫌歧視較為貧窮的公立學校學生,且直接影響學生的受教權,引發英國社會熱議。

5f3b3c760b69a
憤怒的英國群眾上街抗議大考演算法。

但說到底,人類才是歧視的元凶

我們已經得知,演算法的確會存在偏見,但人類要就此判演算法死刑嗎?

演算法的歧視是無法避免的狀況,畢竟編碼、權重都是由人類設定,所以演算法是「繼承」了人類社會的歧視,至少演算法的歧視和偏見是「看得見」的,也可以被矯正且透明化供檢視的。但建立這套演算法的人類,其偏見是很難被矯正或被看見的。解鈴還需繫鈴人,這回到了人類社會的本質性問題:人類要如何消弭歧視?

林昕璇呼籲科技公司,須遵循公法價值的機制,要公開、透明演算法的編碼機制,才能被第三方組織與大眾給互相制衡,將問題搬到檯面上,一起解決科技帶來的隱憂,才能為社會帶來好的價值及循環。

核稿編輯:Anny

延伸閱讀:




精選熱門好工作

Account Executive 專案執行〔集團〕

Cheil PengTai Taiwan
臺北市.台灣

獎勵 NT$15,000

IT System Engineer

Digital Forest Technologies Co. Ltd.
臺北市.台灣

獎勵 NT$15,000

Java Backend開發工程師

天旭國際科技有限公司
臺北市.台灣

獎勵 NT$15,000