AlphaGo 如何擊敗人腦? 自我學習是最大關鍵

評論
評論
REUTERS/Stringer

原文刊登於 Mashdigi,INSIDE 獲授權轉載。

從早年 IBM 深藍 (Deep Blue) 贏過西洋棋王卡斯帕洛夫,當時已經能預測下一棋後的 12 步棋路,贏過人類可預估隨後 10 步棋路,但以西洋棋所有推估棋路約為 1046 種組合,而圍棋則有高達 10170 種組合,因此 Google DeepMind 團隊打造的 AlphaGo 先後擊敗南韓棋王李 世乭 ,以及世界棋王柯潔,意味電腦藉由人工智慧技術演算能力已經能在圍棋應用領域勝過人腦。

那麼,AlphaGo 運算系統是如何在圍棋領域擊敗人腦?

除了藉由 Google 開源使用的 TensorFlow 學習框架增進運算能力,Google 日前也說明 AlphaGo 系統運算是以自製加速器 TPU 提昇整體運算效率,因此相比過往必須藉由長時間比對的運算模式,AlphaGo 在先後兩次的人機對奕才能以更快運算效率完成每一步下子位置判斷。

但光僅藉由運算效率提昇的比對模式仍無法贏過人腦,因此 AlphaGo 在系統運算過程導入監督式學習 (Supervised Learning),以及強化學習 (Reinforcement Learning) 的運算模式,藉此對應組合複雜的圍棋下子方式,使 AlphaGo 能藉由自行模擬對奕進行學習,並且透過策略網路、價值網路判斷每一步下子結果導向,同時結合 1997 年人類便已設計的蒙地卡羅樹搜尋 (Monte Carlo tree search, MCTS) 演算法讓判斷過程所需時間縮減,藉此在下棋過程中藉由對手下子方式進行自我學習,並且判斷有利棋路。

從早期雙層神經網絡到多層神經網絡,乃至於後期蒙地卡羅樹搜尋等演算技術,人類打造的電腦運算能力也隨著摩爾定律持續增長,並且發展至藉由多組 CPU、GPU,甚至 Google 藉由 TPU 加速運算,讓透過 TensorFlow 學習框架運作的人工智慧系統執行效率增加,藉此追上人腦思考方式及速度,進而判斷棋路走向而制定勝棋策略。

由於判斷學習與運算效率大幅提昇,因此讓人工智慧系統運算效果遠遠勝過人腦,因此在去年藉由與南韓棋王李世乭對奕經驗,同時之後更在網路圍棋對戰平台挑戰無數國際棋手創下 60 連勝紀錄,使得 AlphaGo 能以更進階效能擊敗世界棋王柯潔。

而在上述優勢之外,人工智慧系統在下子過程還有不受傳統棋路觀念、情緒變化或體力疲倦,甚至能就整個棋面下子結果做分析評估,相比人腦在思考過程容易過於集中一點,或是受到過往思維影響,導致忽略其他棋路可能性,同時也可能因為焦慮、分神等情況導致錯誤判斷。

不過,AlphaGo 在下子過程也並非完美,相比人腦習慣多思考不同棋路的想法,人工智慧系統運算過程一旦評估可行方案便會立即執行,但或許仍有值得改善空間,藉此更貼近人腦思考模式。而在運算能力部分,預期也能藉由電腦效能、運算系統提昇,讓人工智慧系統「思考」所需花費能耗、時間,甚至整體佔用空間進一步縮減。

至於電腦再次擊敗人腦,意味著什麼?

就 Google DeepMind 團隊負責人 Demis Hassabis 表示,電腦在圍棋項目擊敗人腦,事實上並非為了進一步取代人類地位,而是證明電腦運算能力將可協助人腦解決更複雜難懂的問題,例如在龐大數據中分析有用且具價值內容,藉此讓人類能在更短時間內發展各類創意,意味能使人類以更快速度成長,因此人工智慧技術精進對於人類發展依然有其意義。

但人工智慧技術持續成長之餘,是否也將對人類造成危害?

若以人工智慧系統本身即以人為編碼構成,事實上會發生電影中天網般劇情情況的機率並不高,只是對於日後生活模式、工作方法確實將帶來巨大改變,例如自駕車、機器人及更多可藉由自動化完成的作業模式,未來可能都將取代傳統人力,勢必形成不少調整,而這也將是人類必須面臨的改變,就像過去電腦協助人類進步,智慧型手機讓人類生活變得更便利。

以電腦系統在圍棋項目擊敗人腦,其實只是證明人工智慧在複雜棋路推演過程的「思考」模式追上人腦,意味在複雜資料運算模式相比傳統電腦提昇許多,但也僅只是侷限在圍棋項目內,並不代表直接將 AlphaGo 系統用於自駕車操作,而是在不同領域、對應不同工作模式能有更好運算效率。

延伸閱讀:

相關文章

評論