別怕天網成真!關於人工智慧的五個詳解

評論
評論

作者蕭瑟寡人,典型「好事不出門,壞事傳千里」個案。沒事看書充飢、有閒寫文聊聊時事。現專注於教育育成與科技創業。 個人臉書連結費德智庫 共同創辦人暨專欄作家

最近關於機器人與人工智慧的新聞不斷,不管是 Boston Dynamics、AlphaGo 還是人形機器人 Sophia,都使關注人工智慧的朋友越來越多,自然而然有很多人開始產生疑問:

天網的時代是不是要來臨了?

(按:不要跟我說你沒看過魔鬼終結者。)

對於人工智慧的莫名恐懼

我們對於人工智慧的恐懼,其實可以追溯到科學怪人(Frankenstein),甚至招魂術(Necromancy)以前。我們害怕我們有一天能夠自己創造或賦予一物體智慧,最後卻失去對其之控制而遭殺身之禍。

當然,這種恐懼不是完全沒有可能,但是在下任何結論以前,我們必須先深入了解甚麼是人工智慧。

何謂人工智慧?

其實我們口語上的人工智慧和學術上討論的人工智慧有很大的差異。

多數人每天討論的人工智慧,是非常含糊的概念,不但包含了所有的自動化、程序化作業外,任何模擬智能、模擬感官,甚至模擬情緒的現象都被人稱之為人工智慧。

定義如此包山包海,也難怪那麼容易就會挑動人們對於末日說的敏感神經。

反觀,學術界的人工智慧雖然依學術領域不同而在定義上有些許差異,但基本上仍不離「了解、模擬人類或動物之智能、認知與行為」的宗旨。若要再細分,人工智慧大致上可以分為以下四大塊:

粗略地解釋,第一欄(黃色),關注的是人類在思考和做決策時,所需的知識、記憶和資訊處理技巧,並將這些理論模型透過機器進行實作,以達到模擬人類思考與行為的目的;第二欄,關注的則是邏輯性和理性的判斷,出發點通常是以邏輯和計算學為基礎。這兩大派系的分歧並不是技術上的,而是哲學上對人工智慧的觀點不同。

而說到人工智慧,其最早出自於哲學的知識學(Epistemology)。哲學上的知識學慢慢地知識學逐漸衍生出心理學、數學、經濟學、計算學等學術領域,但最終的 目的仍然在於了解知識模型與決策模型

當然,各領域對於人工智慧的認知都經過了大幅度的變革,而最重大的變革應該算是五零年代的 認知科學革命(Cognitive Revolution)

在五零年代以前,我們對於人類心理與智能的認知,由 行為主義(Behaviorism) 主導。行為主義學派認為人類與動物的行為是以控制和動機為主,因此可靠重複訓練(Conditioning)養成。行為主義者一般認為具有智慧的行為可以用行為和訓練去模擬,而無須去探討人類與動物的認知系統。若以非常狹義行為主義而論,人類若有機會挑選麵包多半會挑選體積較大的麵包吃,若一隻鳥可以被訓練去挑選大的麵包來吃的話,那這隻鳥至少在挑選麵包這方面擁有類似人類的智能。

所以,我們要怎麼去定義和測量人工智慧呢?

說到人工智慧的測驗,大家應該都聽過鼎鼎大名的亞倫圖靈(Alan Turing)。圖靈測驗(Turing Test)假設若一人透過一介面去跟一電腦(或另一人)互動,若測試者無法判斷電腦和人類的差別,那該電腦之人工智慧便達到跟人類一樣的等級。

許多電影和科幻小說都喜歡拿圖靈測驗來做文章,但是這測驗存有很大的一個問題,那就是: 我們到底測試電腦和人類的共通點到底代表甚麼

舉個例子:若今天測試者問電腦說二加三等於多少,電腦回答五,這是許多受過教育的人類會給的解答,這只代表電腦有能力做基本運算;如果今天測試者問電腦說大象有幾隻腳,若電腦回答四,這也是許多受過教育的人的解答,這也只代表電腦擁有了一些關於動物的基本知識;反觀,若電腦反問說「大象是甚麼?」,這也是沒有見過大象的人可能會問的問題;若測試者問電腦今天開心嗎,不管電腦回答是與否都合乎人類的標準,但這並不代表電腦真的了解人類的情感的感受以或是其在知識和決策上的意義。

圖靈測試到底要測試多久?又測試的是甚麼?其實並沒有一個標準答案。

為什麼?因為 圖靈過世於 1954 年,當時的認知科學尚未成形 。而在那個年代,圖靈與其同儕所討論的人工智慧,嚴格上來說其實是今天的計算學(Computational Theory)。當時的人工智慧論者,在乎的是將人類所從事的工作步驟化、系統化,最後再將這種系統化的過程加以理論化。與其說是在形容人類的智慧,不如說是在奠定計算學的基礎。

認知科學的到來,學術界對於智能的觀點開始以人類和動物的認知架構(Cognitive Architecture)加以定義。在這種架構下,一個人的認知能力不但有基本的感官能力、短期記憶、長期記憶、專注力等,更有知識管理、情緒管理、學習管理等能力。由於認知科學的進步能解釋許多人類智能和認知能力的特性和限制,因而取代了行為主義成為心理學和哲學的主流。

同樣地,學術界對於人工智慧的認知也隨著心理學進步而一日千里。過去的圖靈實驗,今天看來是多麼地含糊?同理,當我們重新審視大眾口語之人工智慧就能看出其定義上的缺陷。

人工智慧真的危險嗎?不見得,人工智慧可能是利用類似人類的知識管理系統來進行推理、利用搜尋演算法來做決策(AlphaGo 就是此類)、或是利用臉頰特徵去做臉部辨識,這些都是很稀鬆平常的「智慧型」工作,似乎無須大驚小怪。

以下,讓我們來進一步探討人工智慧。

人類智能 vs. 人工智慧

由於人工智慧與人類智能息息相關,因此人工智慧作為一學術領域,算是出自於哲學與心理學。一直到九零年代以前,人工智慧領域之實作方法幾乎清一色是以人類的認知能力與智能為設計藍本。當時的人工智慧以模擬人類智能之知識、分析、演繹、歸納等能力為宗旨,與今天業界使用的機器學習有不小的差異。(機器學習部分下一段落再討論)

過去的人工智慧方法衍生出以下(部分)主題與問題:

知識管理(Knowledge Base)

人類利用許多結構性知識來輔助自然語言。如:

類似這樣的知識結構,讓我們可以了解「大象看見兔子」因為大象有眼睛因此並非不合理。但隨著知識庫增長,大部分知識庫都發生了語義歧異性(Semantic Ambiguity)的問題,比如說阿帕契發射飛彈、阿帕契來自於墨西哥,以及阿帕契是開放原始碼軟體等語句都合理(但同時也都不合理),因為阿帕契這詞有太多定義,必須靠更精準的語義分析去判斷,而很難客觀地(獨立於語言的情況下)儲存知識。這類問題成為知識庫方法最大的缺點。

知識管理雖然仍在搜尋引擎中廣為使用(多以知識圖 Knowledge Graph 的方式呈現),但其結構已不再是以豐富的結構性知識為主,而是以機器學習衍生出以統計學導向的語義關聯性為主。

規則式系統 (Rule-based Systems) 與專家系統(Expert Systems)

由於人工智慧除了知識外還需要視情況動作,這種模擬人類智能的架構在過去都以專家系統的方式呈現,而專家系統又多以規則式系統的方式實作。

所謂專家系統就是將我們認為正確的規則以「情況」(Context)、「目標」(Target)與「動作」(Action)三集合的方式呈現。只有在合乎情況的時候,系統才會對目標進行更新的動作。比如說今天我們在設計一四則運算系統,若兩整數之個位數相加超過 10(情況),那我們應該要在十位數欄位之上方(目標)加一以表示進位(動作)。

規則式系統與一般的結構式程式設計最大的不同在於規則式系統的執行是屬於非線性的,因此被用於模擬人類解題時使用的各種知識。

專家系統與規則式系統嚴格上來說並沒有被機器學習淘汰,但是由於其設計成本和建置成本極高,因而今天在業界已較少見。

非線性邏輯(Non-monotonic Logic)與信仰更新系統(Belief Revision)

一般的邏輯系統在增加新的知識(或語句)後,其能夠代表的可能性會增加。但是人類的知識卻不見得如此,如果今天碰到互相矛盾的知識,可能性可能會因此減少。因此人工智慧發展出了非線性邏輯。

打個比方,若我們知道下雨會使地面潮濕,而今天地面是乾的,那前兩語句為真的情況下,那我們知道今天不可能有下雨。非線性邏輯系統的作用在於能自動移除不合理的結論,以維持系統的相容性(Consistency)而不會互相矛盾。

影格問題(Frame Problem)

在人工智慧中一直都是難以解決的問題,Frame problem 當屬其一。所謂的 Frame problem,就是若把世界當作一電影,把時間與物件用「影格」的方式去分開,我們要如何去表示和儲存該「影格」中的知識和規則?又要如何因應事件去改變影格內的知識?

打個比方:若今天兩小孩在玩接球的遊戲,A孩將球丟給B孩,之後B又將球丟給A。若一開始是 Frame 1、A 孩球丟給 B 之後是 Frame 2,而 B 將球丟給 A 之後是 Frame 3,那很明顯地,我們可以推測在 Frame 1 時 A 手上有球(不然怎麼丟?)、在 Frame 2 時 B 拿到球,而 A 手上沒有球(不然 B 手上拿到的是誰的球?),但是到了 Frame 3,A 手上應該是沒有球(已丟出),但是 B 有可能會有球(成功接球)但是也有可能沒有球(沒接到球掉地上了)。若我們在 Frame 2 與 Frame 3 之間再插入一 Frame 2,我們可能會發現 A 與 B 手上都沒有球,而球在空中(因為如果掉在地上 A 就接不到了)。

如此簡單的邏輯語言,卻暗藏了許許多多的隱性知識,若全部用顯性的邏輯規則去表示,那一個簡單的人工智慧系統在輸入任何專家規則前,恐怕已有數不清的隱性知識了。由於人工智慧使用的資料中的語句通常都只有顯性知識,要如何將知識系統、規則系統等全部整合起來來精準地追蹤每個「影格」的隱性知識與相關結論,是人工智慧至今無完解的問題。

故此,在九零年代以前,人工智慧作為一學術領域仍然以許多智能相關的議題為主,但是由於傳統人工智慧方法有許多結構性和規則性設計,一旦資料集合過大,常常會碰到歧異性問題和系統性矛盾,使得人工智慧的系統實作方法都很難用來建置大型系統。

故此,雖然人工智慧的研究在哲學和心理學仍持續進行,在工程領域,許多實作方法已被機器學習取代。

機器學習 vs. 人工智慧

機器學習的理論基礎出自統計學,其功用在於使用統計數據來歸納出可用於預測的統計模型。隨著人工智慧領域對大型專案的實用性要求增加,機器學習便成為人工智慧中最重要的領域。如今業界看到的人工智慧解決方案,幾乎都是以機器學習為主。甚至許多心理學、社會學、經濟學、語言學等領域都借助機器學習來輔助建立結構性模型。

而機器學習(部分)有幾大類:

Unsupervised Learning(非監督式學習)

非監督式學習,粗略地解釋就是從未被標示的資料中找到可預測的模型。由於資料尚未被標示,你很難直接去設定辨識的「正確」標準和雜音標準,因此非監督式學習多仰賴資料本身去尋找聚類集合(Cluster),並以此為標示的基準。打個比方,若你今天有蒐集到許多擁有不同特徵的花,但是你卻不知道他們是甚麼花。那你可以利用花的各種特徵來尋找類似花朵的集合,未來找到新的花朵時,你可以依照花朵的特徵來將其歸類於其中一個集合,這種學習方式即類似非監督式學習。

非監督式學習的演算法包括 K-means、Expectation-Maximization、Principal Component Analysis 等。

Supervised Learning(監督式學習)

監督式學習,相對於先前提到的非監督式學習,差別就在於資料已被明確標示,因此你可以去設定辨識的「正確」標準(通常能明確地標示辨識結果)。相對於前者,監督式學習通常都有更複雜的結構。打個比方,若你今天有許多貓的特徵資料與其所屬的品種,你可以利用監督式學習去建出以特徵資料去預測品種的統計模型,這種作法即類似監督式學習。

監督式學習包括類神經網路(Neural Networks)、貝氏學習(Bayesian Learning)、決策樹(Decision Tree)等。

Reinforcement Learning(強化學習)

在強化學習中,通常系統中都有一假設的「玩家」(Agent)。而這玩家在該環境中的所有動作都有反饋,也就是得失(Win & Loss)。因此在學習時,玩家必須要依環境中的資訊來尋找能將好處最大化的選項。舉個例子,若一系統在幫助一機器人尋找回家的路,在任何時候機器人的位置和狀態都存有一定的不確定性,而這不確定性極有可能造成機器人摔入坑洞(壞處),也有可能幫助機器人成功返家(好處),系統必須依照環境中的資訊去決定對機器人最有利的決定。這種問題,多可用強化學習的 Markov Decision Process 來解決。

看到這邊很多聰明的讀者可能已經發現:傳統人工智慧仍用結構性方法去建置智能,但是到了機器學習,卻改用統計學方法去處理大型資料來模擬人類的某種智慧型行為。後者最大的好處在於其可以因應資料的特性而彈性地進行調適,並訓練出新的統計模型。對於現實世界中充滿雜訊的大型資料集合, 機器學習的彈性和錯誤通融性(Error Tolerance)都使其較過去的人工智慧方法高更實用

但是,機器學習同時也有缺點一些缺點:首先,從科學的角度看來,傳統 AI 方法還可以算是某種程度的描述性科學(Descriptive Science),意思就是其產生的各種模型的結構仍以描述人類的認知架構為宗旨,反觀機器學習的方法雖然模擬人類的智慧型行為,卻幾乎放棄了作為人類認知架構的科學基礎,嚴格上來說是種工程方法(當然這也是好事)。再來,機器學習很難單獨建出擁有高語義複雜度的知識庫,尤其當專案規模不大時,機器學習達到一定準確度(85%+)所需的資料量比傳統人工智慧大很多(傳統人工智慧可能只需要幾十行的邏輯式資料便能進行推理,機器學習卻需要上千筆以上的資料才能建出像樣的模型)。

故此,在看待現代機器學習主導的人工智慧,擁有「智慧型」的行為不代表擁有智能動物的知識管理、推理和決策架構和能力。打個比方,一現代機器學習系統能了解「大象」與「哺乳類」二詞有明顯地關聯性,但是卻無法保證能演繹出「大象有能力哺乳」,或是「大象是胎生動物」等結論(通常需要設計新的系統重新訓練)。

機器人 vs. 人工智慧

在這邊稍微繞道討論一下機器人學和人工智慧的關係。對於大眾來說,自動化的各種機械都被認為是擁有某種程度的人工智慧。這樣說沒錯,但是卻稍嫌含糊了點。

機器人作為一學術領域是兩千年以後的事情,而其學術領域對於機器人的定義很簡單,就是:

  • 感測(Sense)
  • 思考(Think)
  • 動作(Act)

很明顯地,這定義其實比傳統的人工智慧廣很多,因為這麼說來,一擁有影像辨識能力的智慧型機械手臂,也可以算是機器人。

嚴格上來說,機器人學的目標和傳統人工智慧有關聯但是卻不互相隸屬。傳統人工智慧在乎的是模擬人類的知能,而機器人學的重點在於創造可以根據資訊做出判斷並與環境進行物理互動的智慧型機械。後者可明顯受益於許多知識管理和推理系統,但卻不見得一定要運用人工智慧的架構才能夠創造有用的機器人。

人類意識 vs. 人工智慧

最後,我們要來討論一下人類的意識(Consciousness)。說穿了,大眾對於人工智慧的恐懼,其實害怕的不是智慧而是意識。換句話說,我們不是怕機器會取代我們,而是我們害怕機器會擁有類似人類的愛恨情仇。

這邊我們講到重點了:一機器擁有人工智慧,卻不代表擁有人工意識。

目前為止幾乎 99.9999999999% 的人工智慧研究,都是專注於模擬人類的某種智能行為,並且用建出的模型去進行某種生產活動。這種活動其實跟意識完全沒有關係, 意思就是擁有人工智慧的機器會工作,但是對於工作、環境乃至世間萬物,都沒有真正的「感覺」

說到意識,在哲學上仍是一個相對模糊且具有爭議性的概念,但目前在現象學(Phenomenology)中研究的意識架構,人類意識包含了以下(部分)因素:

意向性(Intentionality)

所謂意向性就是能夠「專注」於某事物上。比如說我們的意識擁有意向性,因此我們能夠去觀察特定的視覺物體、聲音,甚至是在腦海中想像某事物。

直覺性(Intuition)

直覺性粗略的解釋就是在意識中探索一物件的屬性,即使是在腦中想像一物件的材質、重量、溫度等。

同理性(Empathy)

同理性,是意識透過觀察另一個體來感受特定經驗的能力。比如說一人可以看到另外一人快樂而想像對方的快樂。

以上只是現象學與哲學等領域非常粗淺的部分定義。由此可見,意識的本質是人類一切價值判斷的基礎,而從以上定義看來,目前沒有機器擁有類似人類的意識。故此,機器在進行既定的處理工作時,並沒有意向、直覺、同理等,因此機器即使從事跟人類一樣的工作,並不代表機器對於此工作有任何感覺,也不會對其有任何價值判斷。

至少在未來數十年內,敝人相信人工智慧的研究仍不會認真考慮人工意識的可能性。

為什麼呢?因為擁有意識和價值判斷的機器有能力出自自我意願去抗拒命令,而這對於設計重視生產力的智慧型機器並沒有甚麼明顯的好處,只能說是有趣的實驗而已,最後至多跟傳統人工智慧方法有類似的下場,因為缺乏實用性而逐漸沒落。

故此,其實人們真正應該擔心的不是智慧型機械,而是當人工智慧日益強大,最後有心人士會怎麼使用這些機器來破壞秩序(高頻交易造成股市和期貨市場動盪較以前劇烈就是很好的例子)。

結語

聊到這邊,我們對於人工智慧的討論差不多要告一段落了。現在重新回顧 Boston DynamicsAlphaGo 還是 人形機器人 Sophia 等機器,我們會發現其實這些最近的「人工智慧」突破,其實是機器學習的高精準度結果。而先前討論過,機器學習的統計模型雖然可達到高精準度,卻不具備有類似人類的知識管理和推理能力,因此,AlphaGo 的演算法無法使其學習其他遊戲(因為其並不具備有跨領域之規則推理和歸納引擎)、Boston Dynamics 的機器人若腳被換成輪子馬上就作廢(因為機器人其實不懂得透過推理去學習物理),而人形機器人 Sophia 雖然可以認出你的臉和記住你的國籍和學歷,但是卻不了解你教育程度、文化背景對於你的生活、飲食習慣和工作習慣的影響(沒有深層的背景知識和推理能力)。

因此在看待這些人工智慧產品時,我們對於人工智慧和人工意識的想像跟現代的機器學習工程方法有一定的出入,因此在驚奇之餘實在無須太過緊張。

《延伸閱讀》

Google 人工智慧工程師提醒:「Skynet 出現並非不可能」

人工智慧有多恐怖?聽聽「天才」Demis Hassabis 怎麼說!

散戶末日?人工智慧在對沖基金的崛起

加速成長,Facebook 推開放人工智慧硬體系統

《Wired》創辦人 Kevin Kelly:人工智慧是未來的趨勢!

Facebook 正在以「我們」的數據去打造全球最佳的人工智慧實驗室

歡迎加入「Inside」Line 官方帳號,關注最新創業、科技、網路、工作訊息

好友人數

相關文章

評論