
【Howie 商業投資】AI 的下一步如何突破?參考人腦生成意識提供解方

專家:笨蛋,問題在大腦!
當前人工智慧以模擬人腦各種功能下去設計,期望最終能夠自主性思考並做出判斷。符號人工智慧(Symbolic AI)嘗試用規則的方式複製大腦的行為,由於規則是人類制定的,因此透過大量規則(Rule-base system)來模擬大腦的知識和判斷,可解釋性相當高。而深度學習 (Deep neural network,DNN) 則是模仿生物神經系統的數學模型,透過不同的變數與階層來推衍出答案。不過,至今為止有個觀念在 AI 界不常被討論:究竟大腦是怎麼形成的?

資料來源:AI 金融科技協會
生物基因序對人工智慧有什麼衝擊?
一位名為 Peter Robin Hiesinger 的德國教授在其著作《The Self-Assembling Brain》中提到,與其讓 AI 無止盡的模仿大腦的各種功能,何不學習大腦的基因序如何自己生成意識、編譯與解讀資訊?搞懂基因序的組成,也許對於人工智慧的演算法效能可以有大幅提升。Hiesinger 認為,原始的基因序會應用當前資訊,嘗試為下個階段的應用生成出新的基因序,而大腦正在這段時間獲得對聽、讀、看、規劃、問題解決、語言學習的能力。

資料來源:普林斯頓大學
能不能不要再有黑盒子了?
這樣不斷自我成長的過程在人工神經網路中逐漸受到重視,研究人工智慧生命(Artificial life,Alife)領域的科學家不斷透過人工模擬生命系統,來研究生命的領域,嘗試將這些研究應用到深度學習模型中,以解決當前 AI 遇到的一個問題:可解釋性。可解釋人工智慧(Explainable AI,XAI)指的是讓技術專家理解人工智慧之成果的方法與技術,是相當對於黑箱學習的一個概念,可解釋性的關鍵在於 「Why」,是一種要求解釋的權力,深度學習模型當前因過於複雜,因此經常在可解釋性上被挑戰,但深度學習模型又具備未來各種商業領域的應用潛力,因此 Hiesinger 才認為也許從「大腦自行組合與生成」的角度可以解決這樣的問題,使 AI 具備深度解釋能力、可解釋模型和這些模型的應用。

資料來源:DARPA
生物學幫助 AI 更親民
人工智慧與生物學的關係通常是前者幫後者,我們可以看到像 DeepMind 精準預測蛋白質的結構、美國能源部聯合基因組研究所用 AI 發現 6,000 種新病毒,又或是開發新藥等等,應用範圍越來越廣。不過,上述提到從大腦如何形成、思考、獲得各種技能也許能夠協助 AI 科學家在建立預測模型時更為精準,並避開被批評為黑盒子科技的問題。可解釋的人工智慧未來可能同時企業創新與風險控管的主 / 被動角色,如 Appier 首席資料科學家林軒田說的:「人類需要知道人工智慧的行為成因,才有辦法給予相應的信任」。
責任編輯:Mia
核稿編輯:Anny
加入 INSIDE 會員,獨享 INSIDE 最精采每日趨勢電子報,未來還有會員專屬內容。 點擊立刻成為會員!
延伸閱讀:
- 【有恆為 AI 成功之本】以聲音監測做到工廠數位轉型的傑尼斯
- 歐盟開綠燈!批准微軟 197 億美元收購 AI 公司 Nuance
- 【人工智慧學校】不怕被取代!藝術家正在培養與 AI 協作的能力
- 讓 AI 不再黑箱,科技部與台大發表 XAI 可解釋性人工智慧模組 xCos