智慧機器人,NVIDIA 的下一場革命

他手托著這台沒有巴掌大的計算機,面對媒體說道:「這就是未來智慧機器人的『大腦』。」
評論
英偉達CEO 黃仁勳:「這就是未來智慧機器人的『大腦』!」
英偉達CEO 黃仁勳:「這就是未來智慧機器人的『大腦』!」
評論

本文獲得合作媒體 極客公園 授權轉載。

英偉達 CEO 黃仁勳:「這就是未來智慧機器人的『大腦』!」Photo credit:Reuters

很多遊戲粉絲聽說英偉達(NVIDIA)發了新卡,激動得去搜尋相關的新聞,可是看來看去,發表會上把「十年來最重要創新」、「全球首款光線追蹤 GPU」掛在嘴邊的老黃卻沒怎麼提起新品在遊戲上的應用。

遊戲粉絲有些失望,核彈還是那個核彈,皮衣也還是那件皮衣,但發表會上屢屢提起、演示的關鍵詞卻並不是他們熟悉的 3A 大作了。

類似的情況也出現在顯卡評測的影片裡,當一位直播主透過機器學習的訓練效果來講解 NVIDIA Titan V 顯卡的性能時,彈幕上馬上刷起了「聽不懂」、「在說啥」的聲音。

遊戲粉絲們也許不是很買帳,但對英偉達而言,人工智慧卻是這家以圖形和計算起家的半導體公司遇上的最好機會。在深度學習井噴式爆發的那幾年,擅長向量和矩陣運算的英偉達 GPU 被許多學者、研究員用來進行研究和訓練自己的演算法模型,甚至 Google Brain 和吳恩達這樣頂級的人工智慧研究團隊和科學家也在使用英偉達的設備。久而久之,英偉達也將自己的注意力轉移到了深度學習這一剛剛在產業裡興起的領域。

「不夠,還不夠智慧」

幾年下來,英偉達在人工智慧領域有了自己的積累,它開始有了新的判斷,專注於底層算力的英偉達開始思考上層應用的方向。

「人工智慧的第一階段,是開發自動化程式設計的軟體。第二階段,是將軟體應用於行業的自動化,這種自動化帶來的效率提升會刺激原有的市場。」在今年的台北電腦展上,黃仁勳把人工智慧的發展分為了三個階段,「第三階段,是 AI 走出電腦,影響外部的世界。」

依黃仁勳的定義,目前我們已經處於人工智慧發展的第二階段,即人工智慧開始初步應用於各行各業。

比如工廠裡的人機協作,大型機械很容易在使用時誤傷到人,但如果給這些設備裝上傳感器,檢測身邊是否有人,即時作出是否要減速的判斷,在使用時就會安全許多。

再比如傳統的拆垛、堆垛設備,只要給設備加一個深度傳感器,它就能判斷出箱子的大小位置和重心,這時機器就能夠判斷出最佳操作位置,從而以最快的速度完成操作。

還有超市商場裡,每天營業員都會在關門後花數個小時的時間整理、統計當天所剩貨品,現在市面上已經有能夠完成點貨和理貨功能的機器人,這些設備能給店家省下不少的人力。

這些都是時下已經投入使用的一些智慧機器,但在英偉達高級軟體經理李銘博士看來,「這些智慧是遠遠不夠的」。

「加一點智慧進去,解決當前場景最急需的問題,看起來是個智慧機械,但其實它對整個機器人本身的促進並沒有想像中那麼大。」

李銘博士認為,這些智慧機器人普遍存在著一些問題:

「第一,軟體成本上升太快,在安防、服務、工廠,不同的場景裡有著不同的需求,體現在軟體程式設計上,軟體架構的邏輯可能會全局推翻,這就導致了軟體開發的成本居高不下。」

「第二,具體到場景裡,單個機械在應用時還需要單獨的調整。以工業機器人的機械臂為例,在工廠裡需要為車床量身測試,設置具體操作參數,比如距離產線的距離, 50 cm 還是 60 cm , 10 cm ± 的誤差在生產線上是絕對不允許的。」

「第三,面對環境的變化適應性差,比如工廠裡的光線發生變化,比如室外可能會發生的各種意外,現有的機器人是無法應對的。」

「第四,軟體更新,當功能有增加或者修改時,需要做很多額外的工作,比如改變程式的邏輯,甚至重寫程式等等。」

如前面黃仁勳提到人工智慧的三個階段,智慧從軟體開始,機器人從完成固定程序動作的普通機械,到今天「有一點點智慧」的機器人,依賴的正是人工智慧在各自行業的初步應用。

所以要解決以上這些智慧機器的問題,還需要回到軟體的層面,回到人工智慧身上。

機器該怎麼學習?

人工智慧的發展「越來越抽象,越來越複雜」。

從早期簡單的是與否的判斷,到後來精準的識別,可以在複雜的場景裡找出特定的目標,再到後來,出現 AlphaGo  這樣可以做出主動的決策的 AI ,甚至智慧如 AlphaGo Zero ,可以完全依靠「自學」實現快速成長。可以看到,軟體的智慧水準是領先於我們常見的硬體智慧的。

那麼,人工智慧在硬體上的部署遇到了哪些困難呢?

首先是 計算力 。硬體,尤其移動機器人上能夠搭載的計算力非常有限,這與 AlphaGo 這樣傾全公司算力訓練出來的 AI 不同。

人工智慧經過這麼長時間的發展,在網路的種類、複雜程度和處理的訊息量上都發生了天翻地覆的變化。網路種類上,從早期的 AlexNet 和 GoogleNet 到現在各式各樣的 GAN(生成對抗網絡)以及各種深度強化學習的網路,它們各自網路結構都有不同,開發者在適應最新的網路上常常會遇到一些麻煩。

網路變得越來越複雜,處理的訊息量也在成倍地增長,算力需求越來越高的情況下,對搭載處理單元的體積有更多限制的機器人實際上存在著在智慧水平上升級的障礙。

其次是 訓練環境 。對於 AlphaGo 、 DeepMind ,科學家們可以設定一個基本規則,讓它永遠跑在計算機裡,不停地訓練,技巧磨煉得越來越強大,但機器人的訓練卻遠遠沒有這麼簡單。

在去年的 GTC 大會上,黃仁勳展示了加州大學柏克萊分校的 AI 實驗室所做的曲棍球機器人實驗,在一個僅一米左右的直線上,柏克萊的曲棍球機器人「艾達」足足試了 200 次才熟練地掌握了將球打入門框的技巧。

「這還只是曲棍球!」黃仁勳說道,「如果我想抬起一輛汽車呢?如果我想開門呢?如果我想讓機器人和醫生配合做手術呢?」

「我們不可能讓機器這麼學習。」

這裡,英偉達高級軟體經理李銘博士指出,在使用深度強化學習對機器人進行訓練時,有三個主要的障礙:

第一,真實世界的訓練過程太過緩慢,並且成本昂貴。Google 的機器人實驗室曾經用三個月的時間拿 14 台機械手臂完成了 30 萬次的拾取動作的訓練,同時還配備了一整隊的工程師「鞍前馬後地照料」這些機器人。對其他公司或者普通研究人員而言,這樣的成本是完全負擔不起的。

第二,訓練的部分非常危險,可能會造成一定程度的損失。機器人在訓練時是直接與物理世界交互的,任何的碰撞都可能會導致機體的損傷,甚至可能會對訓練的「陪護」人員造成傷害。

第三,訓練環境的搭建非常耗時耗力。以自動駕駛為例,如果要訓練汽車在面對前面汽車追尾時的表現,連日常生活中的數據都很難收集,更不要說搭建起類似的場景了。

NVIDIA 的答案

在今年台北電腦展的發布會上,英偉達發布了 NVIDIA Isaac 機器人平台,包含硬體、軟體和虛擬世界機器人模擬器的 NVIDIA Isaac 。

同樣在這場發布會上,黃仁勳還發布了「世界首台專為機器人打造的處理器」NVIDIA Jetson Xavier ,他手托著這台沒有巴掌大的計算機,面對媒體說道:「這就是未來智慧機器人的『大腦』。」

Jetson Xavier 擁有超過 90 億個晶體管,可提供每秒 30 兆次操作以上的性能,這一處理能力甚至比高性能的工作站還要強大。同時,Xavier 擁有 6 個高性能處理器,包括 1 個 Volta Tensor Core GPU、1 個 8 核 ARM64 CPU、2 個 NVDLA 深度學習加速器、1 個圖像處理器、1 個視覺處理器和 1 個影片處理器。超高的計算能力讓可以直接部署在終端機器人上的 Jetson Xavier 能夠為機器人的感知和計算提供基礎算力的保障。

軟體上,Jetson Xavier 配備了一個工具箱,包含 API 工具包 Isaac SDK、智慧機器加速應用 Isaac IMX 以及高度還原的虛擬仿真環境 Isaac Sim。

英偉達在 2017 年的 GTC 上首次發布了 Isaac 虛擬仿真環境的部分。只需要普通遊戲引擎,開發者們就可以打造出一個非常仿真的虛擬環境,在這個 VR 世界裡,開發者可以在其算力支持的條件下,對機器進行盡可能多、盡可能快的訓練,訓練完成後,機器可以直接部署到機器人上,完成物理世界裡的測試。這樣一來就解決了訓練環境的諸多問題。

在英偉達看來,機器人終歸是要擁有超強的邊緣計算能力的,而目前遠遠超越現階段機器人應用需求的 Jetson Xavier,正是為了下一代自主機器打造的 AI 計算芯片,在 Isaac 平台的支持下,機器無所不在地幫助我們日常生活工作,提高整個社會的效率,終將在不久後成為現實。


精選熱門好工作

客服專員 擴大徵才中

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

品類管理企劃 Category Management Planner

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

前端開發者 / Frontend Developer

奔騰網路科技有限公司
臺北市.台灣

獎勵 NT$20,000

評論