一場事先避免的車禍:Tesla Autopilot 已可提前警告,自動煞車!

評論
評論

本文來自合作媒體 36Kr,INSIDE 授權轉載

汽車平穩地在高速公路上飛馳,前方視野良好,突然車子發出刺耳的警報聲,伴隨警報聲的還有明顯的車速下降,雖然這位 Model X 車主也在專心致志地盯著路面,但這次是車比他還早地踩下了剎車。此時,前方發生了一起追尾交通事故。

這不是科幻片中的場景,這輛加持「未卜先知」能力的汽車來自荷蘭的一位特斯拉 Model X 車主。車主 Hans Noordsij 稱,特斯拉在 Autopilot 系統啓動時主動探測非常有效,並提前介入了制動讓車子停下來。在整個過程中,雷達探測到了前車之前的路況,比車主反應還快,先踩了一腳剎車。這也是正是我們在影片中看到的,這輛特斯拉在碰撞發生之前就發出了警報。

它甚至提前算出了車禍!

Original video, authorisation from the owner. Essential, no one could predict the accident but the radar did and acted by emergency braking. pic.twitter.com/70MySRiHGR

— Hans Noordsij (@HansNoordsij) 2016 年 12 月 27 日

一時間社交媒體上對特斯拉 Autopilot 系統的稱讚不絕於耳。但可能人們不知道的是,這一前向碰撞功能用到的是毫米波雷達,在影片中的跟車場景中,正是毫米波雷達發揮作用的典型場景。毫米波雷達是 Autopilot 自動輔助駕駛硬體的組成部分,2014 年 10 月首次推出,並在今年 9 月 12 號升級為了增強版。 

而這場升級便是源於 7 個月前那場著名的車禍

如果我們把時間撥回到 今年 5 月 ,會發現當時的 Autopilot 系統正因為一起車禍深陷於輿論的口誅筆伐之中:

來自美國俄亥俄州的 40 歲男子 Joshua Brown,駕駛 Model S 到一個十字路口時,與一輛大型拖車發生意外碰撞事故後死亡。當時,Model S 的 Autopilot 自動駕駛模式處於開啓狀態。據特斯拉官方回應,強烈的日照和白色車身是 Autopilot 系統不能檢測出障礙的原因之一。

5 月至今,大半年過去,特斯拉的 Autopilot 系統經歷了怎樣的蛻變?

以 Model X 為例,第一代特斯拉 Autopilot 系統有著這樣的配置:來自 Mobileye 的前置鏡頭位於擋風玻璃中間;來自博世的毫米波雷達,位於保險槓下方;12 個超聲波感應器,分布在車身四周。來自 Mobileye 的視覺識別晶片 eyeQ3。

要探究兩則新聞一悲一喜結局迥異的原因,便是 9 月 12 日發佈的 Autopilot 系統 8.0 的更新。

據公開資料,在此之前的每一代 Autopilot 系統都是以主鏡頭作為主要感應器,以圖像數據分析為主、雷達數據分析為輔的計算邏輯。Mobileye 鏡頭的視覺識別功能非常出色,但是在雨霧天氣下,鏡頭的性能會受到環境能見度制約。根據特斯拉在悲劇發生後給出的說法,依靠鏡頭作為主要感應器在某些極端情況下主鏡頭及視覺識別系統無法識別前方障礙物,比如那場悲劇中「強烈的日照和白色車身」就讓系統出現了誤判。這讓特斯拉開始考慮利用現有硬體提升 Autopilot 系統安全性能的可行性。

從 9 月 12 日推送的 Autopilot 系統 8.0 開始,特斯拉將把雷達用作 Autopilot 系統的主要感應器,利用訊號處理技術建立汽車周圍環境的計算機模型。此外 Autopilot8.0 還包含了雷達建模技術,並開始收集數據提高雷達性能。所有特斯拉汽車將開始利用新軟體收集資料,並上傳到中心數據庫。

毫米波雷達

也就是說,在此次更新中,特斯拉開始把雷達作為核心感應器,同時希望把雷達的性能發揮到極致。而對雷達性能進行挖掘的一個重要做法,就是提高幀數,判斷障礙物狀態:

「減少誤識別的第二部分包括整合每隔 0.1 秒獲取的雷達快照,匯編成為現實場景的「3D」影像。(通常) 通過單一影像幀,很難知道物體是移動的,靜止的,或者只是反光造成的虛像。通過比較包含車輛速度、預期軌跡資料的連續影像幀,車輛可以分辨前方物體是否是真實的,同時預估發生碰撞的概率。」

再看看前面那場悲劇,也就是說,在 Autopilot 系統 8.0 中,特斯拉通過充分壓榨雷達的性能終於解決了少數鏡頭在極端情況下誤判的問題,反過來說,如果沒有解決這個問題,那這個大版本更新又如何能沖淡人們對 Autopilot 系統安全性的擔憂?

但事實上毫米波雷達存在著很多問題,比如識別人像不如鏡頭,對木質和塑料物體的識別存在嚴重問題。另外任何凹型的金屬表面(比如,一個易拉罐?)都會被識別為「大型的危險障礙物」。針對這些問題,特斯拉通通做了細緻的優化。為瞭解決誤識別障礙物從而導致頻繁剎車制動問題,新系統對現有硬體進一步挖掘,讓雷達可以探測到的周邊的物體(數量)達到以前的六倍,並且有能力在每一個物體上獲得更多細節資料。

六倍於之前系統的探測物體,再加上毫米波雷達擅長穿透周圍的障礙,以及探測更遠距離以外的障礙的固有特性,今天這則新聞的路況幾乎可以說是雷達應用的最佳場景了,避免車禍的發生也就顯得合情合理了。

Tesla Vision

對雷達性能的深度挖掘似乎解決了發展自動輔助駕駛系統遇到的難題,然而同時也帶來了新的難題,由於特斯拉把此前車禍原因歸結為 Mobileye 的鏡頭和視覺識別晶片誤判,直接導致特斯拉與昔日合作夥伴 Mobileye 反目成仇,最終二者分道揚鑣。

擺在特斯拉面前的難題是為隨後面世的新車所需的視覺處理晶片及系統尋找新的合作夥伴,或者乾脆自研——畢竟視覺處理晶片市場的優秀企業並不多。

果然,今年 9 月,特斯拉證實了自家 Tesla Vision 專案的存在。再加上今年稍早,特斯拉招募了 AMD 知名微處理器工程師 Jim Keller 為 Autopilot 硬體工程副總裁、以及幾位來自蘋果等公司世界級晶片架構師,Tesla Vision 打造一套基於 Nvidia CUDA 並行計算平台的端到端計算視覺框架計劃逐漸浮出水面。

據特斯拉發言人表示,該系統能夠從鏡頭感應器採集原始數據,然後由特斯拉汽車控制和進行影像處理。它將結合深度神經網絡訓練,並配合特斯拉近期發佈的雷達處理技術不斷優化。也就是說,Tesla Vision 將與 Autopilot8.0 的雷達探測技術緊密結合,通過官方服務器收集大量的行駛數據積累,讓 Autopilot 變得越來越「聰明」、越來越安全,並為即將推出的無人駕駛系統的研發鋪路。

舉個簡單的例子,在之前的 Autopilot 8.0 中,在進行變道操作時,依然需要人來打轉向燈,此後車輛會在確認盲區沒車沒有危險的情況下,進行相應變道。當然了,你也能想見,在變道還需要人來打燈的情況下,特斯拉就更不可能知道從哪個路口上下高速/環路,進行左拐、右拐等操作了,現在要想到達目的地,仍需要人來決定走哪條車道、如何走。

而在 Tesla Vision 的設想中,車輛可以自行變道、進行相應車道的選擇、上下高速路口,也就是說,人類駕駛員輸入起止點,就能一鍵到達目的地的場景已經進入特斯拉藍圖了。

不過,還是那句話,在沒有無人駕駛技術完全成熟之前,我們是事故負責人,照著特斯拉的指示做到「手握方向盤,隨時準備接管車輛」吧。


精選熱門好工作

客戶管理企劃 Key Account Management Planner

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

樂趣買Web Designer(Rakuma)

台灣樂天市場
臺北市.台灣

獎勵 NT$20,000

Brand Management

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

評論