比 GPU 更小更節能!交大發表「晶片化」AI 自駕模型

評論
評論

交通大學電子研究所郭峻因教授率領團隊開發 8 年,今天公布研究成果,推出領先全球,可以支援各種 AI 自動駕駛車的「嵌入式 AI 物件辨識系統」,不只讓自駕車偵測距離大幅增加至 200 公尺,甚至還適用於各種天候!

郭教授表示,外國各大廠的自駕車技術精良,但大多都是採用高階 GPU 運算,相對來說太貴、太耗能,很難商業化。所以郭教授想做的就是「嵌入化」,把自動駕駛模型放在比較小且便宜的 AI 晶片上。

嚴格說起來,郭教授團隊今天發表了三項技術:1.自動標記工具 ezLabel,2.高精度嵌入式 AI 物件辨識模型,3.深度學習行為預測模型。

我們知道 AI 其實需要仰賴工人智慧,透過大量人力去做標記的工作;但郭教授研發出「ezLabel」,可以極快速且自動的標記物件、行為、場景,其效率超過目前現有手動資料標記工具達 10-15 倍以上,而且具備資料管理、資料分析功能,甚至於去年獲得第一屆台灣 AUDI Innovation Award 兩項獎項。

目前郭教授團隊已利用 ezLabel,自己建置了超過 1,500 萬筆適合台灣地區之自駕車影像資料庫,除了汽車、行人、道路之外,還有擁有高達 188 萬筆的機車資料。郭教授表示,機車就是國外自駕車演算法最缺少,也是台灣在開發自動駕駛裡最獨特、最有機會的一塊。他們也在去年釋出了一部分資料共 10 部影片、96000 張樣本給外界公開使用,並規劃將在未來把標記工具釋出給企業與學術界使用。

有了基礎資料,郭教授團隊自己也研發了在虛擬環境下,使用 NVIDIA 自駕車平台 DRIVE-PX2 偵測能力可超過 200 公尺的車輛嵌入式深度學習演算法,超越現階段文獻標竿演算法(YOLO v2)有 4 倍之多。

Image_from_iOS_(15)
▲郭教授團隊用台廠芯鼎車規 AI SoC 運行自駕演算法

但如同前述,郭教授真正致力的是把自動駕駛演算法「縮小」,讓它可以運行在更便宜、更節能的晶片上,因此也沿著上面基礎,開發出更低功耗的識演算法 NCTU SSD lite,相同準確度下模型大小僅為 YOLO v2 的 7%,運算複雜度也只有 YOLO v2 模型的 27%,而且它可以用在德州儀器的 TI TDA2X,以及台廠芯鼎的車規 AI SoC iCatch V37 上,實現即時物件偵測。

第三項則是獨創的深度學習行為預測技術,透過深度學習,讓車子具備準確判斷後車未來 3 秒鐘是否要超車的能力,也可運用在預測行人是否穿越馬路上。目前團隊已跟 28 家企業展開各種合作,未來也將積極跟 AI 晶片公司、車電系統公司與圖資公司共同努力發展自駕車技術。

核稿編輯:Mia

延伸閱讀:



精選熱門好工作

客服服務品質稽核專員

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

Campaign Manager 活動企劃經理

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

Video/Image Processing Software Engineer

PicCollage 拼貼趣
臺北市.台灣

獎勵 NT$20,000

評論