【電車世代】淺談特斯拉、AI 相機視覺與光達

自製專題

評論
Photo Credit:截自 Whole Mars Catalog
Photo Credit:截自 Whole Mars Catalog
評論

特斯拉最近有兩個動作格外令人矚目,一是預告這個月開始北美的 Model 3、Model Y 將會全面拿下雷達,Autopilot、全自動輔助駕駛(Full-Self Driving, FSD)系統將會交給以神經網絡為底的 AI 全相機視覺判斷。

但另一個動作就有點納悶了,特斯拉執行長伊隆‧馬斯克(Elon Musk)曾經說過光達(LiDAR)是蠢東西,但最近彭博社卻爆出特斯拉悄悄地幫一台 Model Y 安裝 Luminar 光達進行路面測試,不禁令外界懷疑:是特斯拉要出光達自駕車嗎?還是要比自己 AI 相機視覺跟光達相比的準確度?

雖然嚴格說起來,自動駕駛並不是純電動車的專利(註),但今天我們就趁這個話題,跟大家小聊一下光達與 AI 相機視覺吧。

光達

不管光達還是 AI 相機視覺,都是擔任自駕車的「眼睛」,用來判別周遭環境的角色。光達的中文全名是光學雷達,其實跟雷達用來偵測距離的原理很像,雷達是向目的地發射無線電波,然後照物體反射回來的速度推斷距離;只是光達顧名思義用的是「光」,藉由發射脈衝雷射光來測距,可以實現釐米級的精準度。

那自駕車是怎麼運用光達的呢?簡單來說,當車子行駛時光達會以均速轉動,並向周圍發出面狀雷射,這些雷射當碰到物體就會反射,然後光達會記錄這些反射點紀錄座標,將這些座標化成點雲(point cloud),再用這些點雲的形狀判斷這個物品是什麼、距離多遠。實際用在車上的光達每秒最少會進行 100 萬次掃描。

一旦知道這些路上的物品是什麼、距離多遠,就能回饋給自駕系統做路況判斷。像 Google Waymo 就是光達的堅定支持者。

AI 相機視覺

一樣的,AI 相機視覺也是想讓自駕車知道周圍環境有什麼車、有什麼人,但是實踐的方式比較光達更「軟體」一點。它的原理是先準備好一組經過訓練的視覺神經網絡模型,然後透過攝影機,用 AI 即時判別的路上環境,這個技術其實也很普遍了,像人臉辨識、人流辨識等等都是運用 AI 視覺很成熟的領域,只是自動駕駛要比人臉辨識、人流辨識複雜得多。

特斯拉背後的理由:堅持軟硬都要自己整合

那為什麼馬斯克會對光達斥之以鼻呢?最重要的理由之一就是成本考量了,目前成熟的車用光達系統一套成本約在數千美元之譜,但是特斯拉單顆鏡頭成本只要幾塊美金,全套加雷達、超音波感測器約只有數百美元。

目前自駕車也可分成光達、AI 視覺派兩個主流,彼此競爭得也很厲害;但特斯拉確實自家在開發 AI 視覺上有獨到之處,他們已透過軟體訓練,結合多顆的 AI 相機的影像,達到跟光達一樣的測距效果(Pseudo LiDAR)。

但更重要的,可能還是特斯拉是一間跟蘋果很像,堅持以「軟硬都要獨家整合」的公司,能夠光靠 AI 相機視覺實現自動駕駛不只要模型算得好,還得有強大運算能力在背後支持。特斯拉自動駕駛 ECU 過去使用 Nvidia 兩個 Parker SoC、一個 Nvidia Pascal GPU 和 一個Infineon TriCore CPU 構成 HW2.5,現在則是使用自家設計生產的 SoC (含一個 Arm Cortex A72 架構 CPU、兩個 Arm Mali GPU,以及兩個專用神經網路處理器)。

註:由於油車在做動反應時,硬是有需要透過油門、節氣門、EPS 的步驟,比起純電車電控系統毫秒級的反應時間吃虧不少,所以先天上若要實現 Level 4 的自動駕駛,難度反而多上不少。

核稿編輯:Anny

延伸閱讀: