人工智慧不是虎姑婆

其實,以上告訴我們人工智慧真正的危險之處在於人類集體的想像力以及對圖靈時間的解讀方式,因為這主宰了人類科學與科技的方展方向。若你真的認為人類有天會認為設計能模擬自我意識的人工智慧很有價值(即使這從生產力的觀點上看來似乎沒甚麼太大的意義),那是的,人工智慧末日說是有其可能性,只是機率仍然極小。
評論
評論

(Photo by screen relish)

作者自介:蕭瑟寡人

典型「好事不出門,壞事傳千里」個案。沒事看書充飢、有閒寫文聊聊時事。現專注於教育育成與科技創業。個人臉書:www.facebook.com/bleaksolitude。費德智庫 www.facebook.com/formosandeliberative 共同創辦人暨專欄作家。

 

(警告:本文將洩漏 2015 年電影機械姬 Ex Machina 之部分劇情)

最近人工智慧的危險性在網路上吵得沸沸揚揚,這恐懼感已昇華至偏執狂,連知名物理學家 史帝芬霍金(Stephen Hawking) 與特斯拉創辦人 Elon Musk 都相繼發言。當然,有人嗆自然 有人反嗆

從字面上去分析這些言論,很明顯地有不少人認為人工智慧複製了人類智慧包括人類的生產力、感情與動機。這種人工智慧定義在大部分的情況下,跟真實世界的人工智慧有很大的出入。

為什麼那麼多 人工智慧末日說 喜歡把生產力、感情與動機全部綁再一起呢?我個人以為這是因為人類在從事任何生產活動時,實際生產力和工作者的動機有直接的關係。換句話說, 如果人類沒有誘因,就沒有生產力。只要是人,都需要有跟胡蘿蔔讓我們追。

人工智慧,從現在科學與科技的角度來看,並不是同一回事。不管你今天討論的是傳統人工智慧的邏輯與知識推理主導之專家系統(Expert Systems),還是用模擬神經元連結來處理和儲存資料的人工神經網路(Artificial Neural Networks),或是用貝茲網路(Bayesian Network)來計算主觀機率,所有的人工智慧方法都只有一個目的,那就是 有效率地完成一生產性工作。

人工智慧與人類不同。人工智慧並不需要任何誘因,只要你下命令、按下按鈕即可運作。說穿了,人工智慧的設計哲學只在乎"做甚麼"(what)和"怎麼做"(how),而不在乎"為什麼這麼做"(why)。而"為什麼"三個字,只有在能在事物上賦予價值(value)的情況下,才有意義。在沒有自我意識(Self-awareness)和自我生存(Self-preservation)的情況下,一人工智慧並沒有必要去了解工作本身是否有價值(或意義)。

沒錯,許多知名電影的劇情都推測人工智慧有一天會擁有自我意識。問題是,為什麼人工智慧會有自我意識呢?

如果人工智慧的目的在於有效率地完成生產性工作,為什麼會有人將自我意識賦予人工智慧,使其能夠斷言工作沒有意義而拒絕執行?這麼一來,我們設計出的人工智慧不就跟人類一樣,要用許多誘因才能夠完成生產性工作?在這種理念下設計出來的人工智慧,跟人工智慧的目標相違,必當非常沒效率且拙劣。

既然如此,人工智慧究竟如何危險?

若我們完全以知名科幻電影為討論基礎(其實也是這些電影煽動了我們的偏執恐懼),必先分析這些電影的主題大綱怎麼形容人工智慧如何推翻人類社會。怪乎,大製作院線片如魔鬼終結者(The Terminator)、I, Robot(機械公敵)以及今年剛上映的機械姬(Ex Machina)在人工智慧自我意識的理念上其實互相牴觸。

首先來談談 魔鬼終結者 ,該系列敘述了一個被擁有自我意識的人工智慧 Skynet 推翻的人類世界。片中,Skynet 與旗下之終結者機器人將人類視為奴役者,因此希望將人類趕盡殺絕以確保 Skynet 的自主性。但我們先前討論過,現實生活中的人工智慧可說完全沒有去決定自己的工作是否有價值、有意義的必要,自主與否對人工智慧並不重要。

再來 機械公敵 I, Robot   的故事則敘述一個人類將包括社會安定在內的各類工作交給人工智慧與機器人代理。漸漸地,故事中的人工智慧 VIKI 發現只有強行控制人類的活動才有辦法避免人類自己造成社會動盪、自我毀滅。當然,在書本原著以及電影中,作者表示所有機器人都遵行 機器人學三大定理 以確保他們沒有辦法推翻人類社會。若我們不理會三大定理的假設,人工智慧在運行的同時造成人類傷亡,並不是沒有可能的事情。至於人工智慧是否會像電影中的 VIKI 一樣自行決定奪取人類手中的控制權來完成人類賦予他的和平使命,又是另外一回事了。

最後, 機械姬 的劇情則敘述了一批渴望自由表達與感受"人類般情感"與自我意識的機器人,因而選擇積極、甚至激烈地捍衛他們的情感。片中的機器人並沒有明顯地生產力,但是卻能近完美地揣摩人類的情感。從人工智慧產業界的角度看來,這些機器人的設計非常稀有。此電影反覆提及 圖靈實驗(Turing Test) 來鞏固其人工智慧的合理性。

圖靈實驗!哈哈!我相信我們終於講到重點了。由知名電腦科學家圖靈(Alan Turing)所設計的圖靈實驗指出,若一人類透過某種介面(如自然語言)與一人工智慧互動並且將其誤認為人類,那這實驗便通過了,同時證明人工智慧以能與人類智慧平起平坐。

聽起來很合理,不是嗎?

圖靈實驗其實在學術界與產業界多年來備受質疑,原因不外乎該實驗是在二十世紀中期設計的,當時我們對於人類心理學的認知仍停留在 行為主義(Behaviorism) 的年代。在心理學中,行為主義學派認為所有行為都能夠被直接影響和訓練,而無須討論認知、思考或情緒。換句話說,圖靈實驗並沒有一個很明確地告訴我們人工智慧揣摩的人類行為究竟代表了甚麼。

圖靈在 1954 年去世時,認知科學學派大舉推翻了行為主義學派。至今,學術界對於人類行為、人腦之資訊處理、人腦記憶、人類情緒,甚至人類如何反省自己的思考模式(元認知)之研究,與圖靈的時代已不能同日而語。

通過圖靈時間究竟代表人工智慧擁有了人類智慧的那些部分,到底是代表人工智慧能取代人類生產力?還是人工智慧有辦法模擬人類情緒?還是更極端點:人工智慧有自我意識並且能判斷價值與意義?用今天認知科學的角度探討已有太多種圖靈未曾想過的解讀方式。

所以,人工智慧到底有甚麼恐怖之處?

其實,以上告訴我們人工智慧真正的危險之處在於人類集體的想像力以及對圖靈時間的解讀方式,因為這主宰了人類科學與科技的方展方向。若你真的認為人類有天會認為設計能模擬自我意識的人工智慧很有價值(即使這從生產力的觀點上看來似乎沒甚麼太大的意義),那是的,人工智慧末日說是有其可能性,只是機率仍然極小。

但若是以現在的科技產業動向與經濟走向為衡量標準,人類文明的發展方向與人工智慧末日說可說是完全沒有哲學關聯性。

所以,真的不用太擔心啦。

 

加入"Inside" Line 官方帳號

好友人數