三張貼紙騙特斯拉進逆向車道,資安研究員揪自動駕駛盲點

既然特斯拉對模糊標線也能準確判斷,研究員換個角度切入,測試「假車道攻擊」(fake lane attack)。研究員在地上貼了三張貼紙,依序延伸到左側,結果特斯拉自動駕駛果真上鉤,將對向車道當作另一條路的右側車道,直接開進去。
評論
Photo Credit: <a href="https://keenlab.tencent.com/en/whitepapers/Experimental_Security_Research_of_Tesla_Autopilot.pdf" target="_blank">Keen Lab Experimental Security Research of Tesla Autopilot</a> ▲ 研究測試貼紙可以干擾特斯拉自動駕駛對標線的判別,紅圈內為 3 張貼紙
Photo Credit: Keen Lab Experimental Security Research of Tesla Autopilot ▲ 研究測試貼紙可以干擾特斯拉自動駕駛對標線的判別,紅圈內為 3 張貼紙
評論

騰訊旗下資安公司 Keen Security Lab 的資安研究員上週發表了一份報告,在車道中貼了 3 張貼紙,引導自動駕駛Tesla Model S 誤判,駛進對向車道。

報告一開始,研究員嘗試讓與左側車道分隔線模糊難以辨識,企圖擾亂特斯拉的方向,不過特斯拉這方面表現極佳,絲毫不受干擾,測試結果顯示要藉抹糊路上標線攻擊特斯拉的實行難度非常高。

不過既然對模糊標線也能準確判斷,研究員換個角度切入,測試「假車道攻擊」(fake lane attack)。研究員在地上貼了三張貼紙,依序延伸到左側,結果特斯拉自動駕駛果真上鉤,將應為對向的車道當作另一條路的右側車道,直接開進去。

雖然測試中並沒有設定另一輛對向車開過來,但現實中也有可能會碰到沒對向車的情形,逆向開在車道中仍然相當危險。

至於達成難易度方面,報告中並無詳述貼紙大小,但從現場畫面看起來應該是「可見而不大」的記號貼紙。研究員也在結論中判斷駭客可以輕易重現類似攻擊手段,並補充建議應加強判斷條件,讓自動駕駛車輛至少能理解並避免駛入對向車道。

autonomous car
Photo Credit: Experimental Security Research of Tesla Autopilot

由於自動駕駛與安全息息相關,儘管目前研究皆指出自動駕駛事故率遠低於人類駕駛,但人們對於自動駕駛仍然不信任,在路透社的調查中可以看到,半數美國成年人認為自駕車比人類駕駛更危險,加上從過去紀錄可以發現,電腦視覺判定與人類不同,常在出人意料之處誤判,不得不慎。

特斯拉針對旗下的 Mdel 3 更祭出豐厚的漏洞獎勵計畫,希望重賞號召資安好手、白帽駭客駭入車中,來揪出任何遺漏的漏洞。

責任編輯:Mia

延伸閱讀:



精選熱門好工作

產品經理 / Product Manager

奔騰網路科技有限公司
臺北市.台灣

獎勵 NT$20,000

營運工讀生 (Part-time Intern)

Wanted
臺北市.台灣

獎勵 NT$4,000

Full-stack (Frontend most) Senior Software Engineer

ShopBack 回饋網股份有限公司
臺北市.台灣

獎勵 NT$20,000

評論