【從紀錄片窺探】《編碼偏見》專家開講:用法律規範演算法,得先從各個擊破開始

自製專題

評論
Photo by <a href="https://unsplash.com/@rolandepg?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText" target="${target}">Rolande PG</a> on <a href="https://unsplash.com/s/photos/racism?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText" target="${target}">Unsplash</a>
Photo by Rolande PG on Unsplash
評論

在《【從紀錄片窺探】《編碼偏見》:演算法並非中立,而是固化人類社會的缺陷》文中,藉由電影《編碼偏見》(Coded Bias),我們看見麻省理工學院媒體實驗室研究員因為系統瑕疵而揭露人臉辨識的缺陷,進而探討演算法在歐美地區侵害人權的實際案例。

INSIDE 延伸「演算法歧視」議題,給予讀者更深度、更獨特的觀點,我們邀請到中國文化大學法律學系助理教授林昕璇進行專訪,從數位人權、資訊科技策略法律的角度,帶領我們深入討論演算法對人類社會的全面影響。

演算法對公權力造成質變、量變?

林昕璇提到,除了片中警察在路口監視器啟動人臉辨識,以偵測路人的危險程度的範例外,在英國南威爾斯也有警方在公開遊行、大型運動賽事周遭採用類似的技術,作為犯罪預防使用,檢測是否有潛在的嫌疑犯、在逃罪犯或危險份子。

這些人臉辨識技術採用所有人的生物特徵,包含虹膜、鼻翼到嘴巴的距離等,在未經告知的狀況下蒐集,當局也未明示是否有蒐集後刪除的程序,也有可能作為日後長期監管之用。在英國引起當地人權律師群起抗議,指控違反歐洲人權公約第 8 條。

其實,於法律論述上的角度來說,公權力只要有正當、依法行政的合理理由來蒐證,的確可能會被歸屬在不構成侵害人權的狀況。在 2019 年第一審判決中,地方法院認為基於預防及偵查犯罪之義務,警察在普通法上,擁有基於偵查目的而獲取及儲存資訊之權力,廣義來說涵蓋公共秩序的維護和避免犯罪。雖法律淵源上沒有明確窮盡的定義(exhaustive definition)該項權限與義務之範疇,但是只要不是以侵入性措施(Intrusive methods)獲取資訊,譬如進入私人住宅或者以暴力脅迫手段,除此之外應可容許,因此主張警方的人臉辨識系統合乎法律規範

但,原告不服第一審判決後上訴於英格蘭威爾斯上訴法院(Court of Appeal of England and Wales),2020 年 8 月上訴法院駁回警方的請求,認為法律賦予警方過度寬泛之裁量權(too broad a discretion),而且威爾斯警方也違反公部門的平等不歧視義務,未能就臉部識別系統所使用演算法可能衍生的性別或種族歧視詳加瞭解,便貿然使用此新興技術,正式宣告人臉辨識技術「非法」(unlawful)! 這也成為全球第一件人臉辨識與演算法侵害人權的法律案例。

雖然結果保障了英國人民的臉部隱私,但林昕璇認為可惜的是,這個案例並沒有引發更多關於演算法在其他層面侵權的討論,例如演算法的應用會對公部門的執法程序帶來如何的質變與量變?當然,法官並非科技專業背景,無法根據這些科技脈絡再多做討論,可是演算法對人類每天的隱私生活都具影響力,這些討論很值得學界、業界專家持續深究。

此外,演算法的黑箱也造就公權力藉此技術在執行時,所帶來大眾的疑慮。許多美國學者皆撰文指出,演算法中間的隱藏層和神經網路,是不透明、不公開的程序,造成了兩層次的黑箱:

  • 第一層黑箱:企業主張原始編碼、運算過程是營業秘密,不能公開。
  • 第二層黑箱:演算法透過內部交錯複雜的自我學習系統,發展出一套人類無法預測、窺探、不可控的第二層黑箱,就連工程師也無法知其全貌。

林昕璇認為,在使用這樣不可控的科技時,不只是公部門無法完整透明化偵調過程,就連要求論證都做不到,除了隱私權外,片中提到的聘僱權、受教權等都無一倖免,對人權侵害造成全面性的疑慮。

法律能規範演算法嗎?

說實話,目前還是窒礙難行的狀態。

林昕璇以美國為例,美國在聯邦層次還沒有針對演算法侵權議題立法,但值得注意的是,在州的層次已經出現先例,例如伊利諾伊州在早年就超前部屬設立《生物特徵​辨識資訊隱私法》(Biometric Information Privacy Act, BIPA),規範企業蒐集消費者生物特徵用途的條例,例如蒐集消費者生物特徵須取得當事人同意、公開使用之用途與目的,並且使用完畢後須有「立即銷毀」的證明,當然也禁止販售或營利消費者之生物特徵,成為美國第一個以法律規範演算法侵權的州。

2008 年伊利諾伊州的生物特徵保護法通過後,為各州立法樹立標竿,2009 年德州也跟進,2017 年華盛頓州、2019 年阿肯色斯州,都已有類似立法以賦予個人訴訟權能(Private Right of Action),藉由訴訟手段實現受侵害之隱私權。 

雖然生物辨識只是演算法的其一環節,還不夠全面,但此舉也造成其他州的仿效,五個州有響應。林昕璇認為,演算法涉及人權侵害的類型太多,難以用通案性的法律明定,只能用各個擊破的方式來制定去中心化的立法模式,會是比較理想的狀態。

以台灣情況來看,光是個人資料保護法的生物特徵歸類就有許多爭議了,而科技偵查法的討論範圍限縮在警察或公權力機關的運用,在私部門領域尚未看到更多討論,離具體立法還有一段路要走。這裡也建議效仿美國立法方式,採各個擊破會較為全面。

個體有辦法反制「來自科技的歧視」嗎?

「當今只有完全不使用手機之人,才能完全倖免。」

手機信號無時無刻都會發射接入基地設備,基本上只要打開手機的那一刻起,就無人能倖免於監控網路之外。林昕璇採較為悲觀的論調,認為個人的力量太渺小,科技力量強大而不可受控,實際上是很難脫離監控資本主義的。

話雖如此,至少使用者必須要認知到一點:一登入網路、打開手機,你的資訊就每分每秒地被利用著。個體要先有所意識,認識數位權力在怎麼樣的情況下被侵害,才能透過一個又一個的訴訟、抗議行動,去制衡科技巨頭無比大的權力,捍衛人類的權益。

演算法與隱私的天秤,該如何取捨?

data-privacy-ss-1920-800x450

這項內在衝突是永恆的命題,也是很多領域學者關注的焦點。

林昕璇認為,以上的批判並不是一味地主張保護隱私就摒棄科技,在科技中立的前提下,演算法的確有便利性。人類社會可以透過一些制度性設計來權衡演算法與隱私的天秤。

那要如何規範演算法的權力過度擴張?有以下三種做法:

  • 制定倫理準則:企業基於自律與倫理,自發性地引入評測標準來評估演算法的影響力。例如美國電氣和電子工程師協會發布 AI 倫理設計準則、微軟成立 AI 倫理道德委員會,這類準則都是企業自我防範的模式。
  • 建立可問責制度:提倡可解釋人工智慧(Explainable AI,XAI)的應用,將 AI 從黑箱中解放出來,並組織可監督、可公開、可問責的制度,接受消費者與社會監督。
  • 吹哨者保護條款:以上兩種較為理想化,需要企業自主貫徹。透過政府制定的吹哨者保密條款,讓員工願意挺身而出檢舉企業內部演算法濫用問題,鼓勵舉報不法行為。

核稿編輯:Mia

延伸閱讀: