不只性取向,最新 AI 算法可以辨識智商和政治觀?

評論
評論

本篇來自合作媒體 36kr,編譯自《衛報》,原標題 “Face-reading AI will be able to detect your politics and IQ, professor says”,INSIDE 經授權轉載。

研究人員表示,不久之後,就能用電腦準確地判斷出美國選民是自由派還是保守派。所需要的僅僅是他們臉部的照片。

Michal Kosinski 是史丹佛大學的教授,他因前不久的研究— 人工智慧能夠根據照片檢測人們是同性戀還是異性戀 而迅速出名。他說,性取向只是算法能夠透過臉部辨識來預測的許多特徵之一。他說

透過照片,人工智慧將能夠辨識人們的政治觀點,他們是否擁有高智商,他們是否有犯罪傾向,是否有特定的性格特徵,以及許多其他私人的個人訊息,這些細節可能會給社會帶來巨大的影響

Kosinski 表示,他預計在不久的將來,臉部辨識技術會引發了複雜的道德問題,即隱私受到侵害,以及可能會濫用人工智慧以攻擊弱勢團體。

他說:臉部是匯集了多種因素的可觀測指標,比如你的生活史、你的發展因素,以及你是否健康。

臉部包含大量訊息,使用大型的照片集,複雜的電腦程式可以發現趨勢,並學習如何將關鍵特徵與較高的準確性區分開來。在 Kosinski 的「同性戀者」AI 中,算法使用在線約會的照片建立一個程式,可以在極高的正確率下辨識人們的性取向(男性 91%,女性 83%),只不過是透過查看幾張照片而已。

Kosinski 的研究極具爭議性,並面臨 LGBT 權利團體的強烈反對,他們認為人工智慧存在缺陷,反對同性戀的政府可以使用這種軟體來對付同性戀者並迫害他們。不過,Kosinski 和其他研究人員認為,強大的政府和企業已經擁有這些技術能力,而在努力推動隱私保護和監管方面的保護措施方面,至關重要的是要揭露可能存在的危險,因為在這些保護措施與人工智慧的發展沒有同步。

Kosinski 是組織行為學的助理教授,他說他正在研究臉部特徵和政治偏好之間的聯繫,初步結果顯示,人工智慧透過人們的臉部特徵來猜測政治傾向是有效的。

他說,就像研究顯示的那樣, 這可能是因為政治觀點似乎是可以遺傳的 。這意味著,政治傾向可能與基因或發育因素有關,這些都可能會導致臉部差異。

Kosinski 說,之前的研究發現 ,美國保守派政客往往比自由派更有吸引力,這可能是因為長相好看的人有更多的優勢,更容易在生活中取得成功。

Kosinski 說

人工智慧在監測那些極度偏左或偏右的人的時候表現最好,對大量中立的美國選民來說,並不是那麼有效的。一個較高的保守分數……會是一個非常可靠的預測,這個人是保守的。

Kosinski 也因其在心理測量方面的爭議性研究而聞名,包括使用 Facebook 的數據來推斷性格。數據公司 Cambridge Analytica 也用類似的工具為支持川普競選的選民提供支持,這引發了關於在競選中使用個人選民訊息的辯論。

Kosinski 說,臉部辨識也可以用來推斷智商,這表明未來學校招生時時可以考慮使用臉部掃描的結果。這一應用引發了一系列倫理問題,特別是如果人工智慧正在研究某些孩子是否在基因上更聰明的時候,他說:「我們應該考慮如何做,來確保我們不會出現類似於' 一個更好的基因,意味著更好的生活' 的論斷。」

Kosinski 的一些建議讓人想起了 2002 年的科幻電影《Minority Report(少數派報告)》,在這部電影中,警察在根據預測就把那些未來有謀殺可能的人給逮捕起來了。這位教授認為,社會的某些領域已經以類似的方式運作。

他說,當學校的輔導員在觀察那些表現出攻擊性行為的孩子時,他們會進行干預。他說,如果算法可以用來準確預測哪些學生需要幫助和早期支援,這可能是有益的。「這些技術在表面上聽起來很危險,也很嚇人,但如果使用得當或合乎倫理,它們真的可以改善我們的生存。」

然而,越來越多的人擔心人工智慧和臉部辨識技術實際上是依賴於有偏見的數據和算法,並可能對人們造成巨大的傷害。在刑事司法的背景下,這尤其令人擔憂。在刑事司法體系中,機器可以根據法庭和警察系統中的偏頗數據作出審判,比如刑期的長短,或者是否釋放某人的保釋。這些數據來自法院和警察系統,每一步都帶有種族偏見。

Kosinski 預測,如果有大量的個人臉部圖像,算法就可以很容易地檢測出這個人是否是精神病患者,或者是否有較高的犯罪傾向。他說,這尤其令人擔憂,因為犯罪傾向並不會轉化為犯罪行為:「即使是有高度犯罪傾向的人也不太可能犯罪。」

他還引用了《經濟學人》中提到的一個例子,在人工智慧用於性取向研究被報導出來之後,夜總會和體育場館可能會面臨壓力,要求人們在進入之前掃描臉部,以發現可能存在的暴力威脅。

Kosinski 指出,在某些方面,這與人類安全警衛對他們認為危險的人做出主觀決定並沒有太大不同。

卡爾加里大學環境設計和電腦科學教授 Thomas Keenan 說,法律通常認為人們的面孔是「公共訊息」,並指出法規並沒有跟上技術的發展:「當使用某人的臉部來產生新訊息時,沒有任何法律認為這是建立在侵犯隱私的情況上。」

Keenan 說,可能需要發生一場悲劇來引發改革,比如一個同性戀青年被毆打致死,因為惡霸用一種算法來攻擊他:「現在,你把人們的生命置於危險之中。」

即使人工智慧能夠做出準確的預測,也有一定比例的預測是不正確的。

Keenan 說:「你正沿著一個非常滑的斜坡走下去,不管是二十分之一,還是一百分之一……預測都不是完全準確的。」

延伸閱讀:

史丹佛大學新 AI 算法,用照片判斷出你的性取向!

評論