【神預測前方車禍】死亡車禍 7 個月後,這次特斯拉讓唱衰自動駕駛的人通通閉嘴

【我們為什麼挑選這篇文章】最近有一支行車紀錄器影片在網路上爆紅,這部特斯拉電動車在駕駛途中突然發出警告,甚至先自動剎車,避免了追撞上前方的交通事故。今年五月才剛發生首起特斯拉死亡車禍,在這部影片中卻成功保護駕駛免於危險,這篇文章解釋短短幾個月內,特斯拉 Autopilot 系統的進化之路。(責任編輯:黃筱雯)

文:鄭曉康/編輯:盧姿伊

汽車平穩地在高速公路上飛馳,前方視野良好,突然車子發出刺耳的警報聲,伴隨警報聲的還有明顯的車速下降,雖然這位 Model X 車主也在專心致志地盯著路面,但這次是車比他還早地踩下了剎車。此時,前方發生了一起追撞交通事故。

https://www.youtube.com/watch?v=D4xt2smoUso

這不是科幻片中的場景,這輛加持「未卜先知」能力的汽車來自荷蘭的一位特斯拉 Model X 車主。車主 Hans Noordsij 稱,特斯拉在 Autopilot 系統啟動時主動探測非常有效,並提前介入了制動讓車子停下來。在整個過程中,雷達探測到了前車之前的路況,比車主反應還快,先踩了一腳剎車。這也是正是我們在影片中看到的,這輛特斯拉在碰撞發生之前就發出了警報。

它甚至提前算出了碰撞!

一時間社交媒體上對特斯拉 Autopilot 系統的稱讚不絕於耳。但可能人們不知道的是,這一前向碰撞功能用到的是毫米波雷達,在影片中的跟車場景中,正是 毫米波雷達發揮作用 的典型場景。毫米波雷達是 Autopilot 自動輔助駕駛硬件的組成部分,2014 年 10 月首次推出,並在今年 9 月 12 號升級為了增強版。

而這場升級便是是源於 7 個月前那場著名的車禍。

如果我們把時間撥回到今年 5 月,會發現當時的 Autopilot 系統正因為一起車禍深陷於輿論的口誅筆伐之中:

來自美國俄亥俄州的 40 歲男子 Joshua Brown,駕駛 Model S 到一個十字路口時,與一輛大型拖車發生意外碰撞事故後死亡。當時,Model S 的 Autopilot 自動駕駛模式處於開啟狀態。據特斯拉官方回應,強烈的日照和白色車身是 Autopilot 系統不能檢測出障礙的原因之一。

5 月至今,大半年過去,特斯拉的 Autopilot 系統經歷了怎樣的蛻變?

以 Model X 為例,第一代特斯拉 Autopilot 系統有著這樣的配置:來自 Mobileye 的前置攝像頭位於擋風玻璃中間;來自博世的毫米波雷達,位於保險桿下方;12 個超聲波傳感器,分布在車身四周。來自 Mobileye 視覺識別晶片 eyeQ3。

要探究兩則新聞一悲一喜結局迥異的原因,便是 9 月 12 日發布的 Autopilot 系統 8.0 的更新。

據公開資料,在此之前的每一代 Autopilot 系統都是以主攝影鏡頭作為主要傳感器,以圖像數據分析為主、雷達數據分析為輔的計算邏輯。Mobileye 攝像頭的視覺識別功能非常出色,但是在雨霧天氣下,攝影鏡頭的性能會受到環境能見度制約。

根據特斯拉在悲劇發生後給出的說法,依靠攝影鏡頭作為主要傳感器在某些極端情況下主攝影鏡頭及視覺識別系統無法識別前方障礙物,比如那場悲劇中「強烈的日照和白色車身」就讓系統出現了誤判。這讓特斯拉開始考慮利用現有硬體提升 Autopilot 系統安全性能的可行性。

從 9 月 12 日推送的 Autopilot 系統 8.0 開始,特斯拉將把雷達用作 Autopilot 系統的主要傳感器,利用信號處理技術建立汽車周圍環境的電腦模型。此外 Autopilot8.0 還包含了雷達建模技術,並開始收集數據提高雷達性能。所有特斯拉汽車將開始利用新軟體收集信息,並上傳到中心數據庫。

毫米波雷達

也就是說,在此次更新中,特斯拉開始把雷達作為核心傳感器,同時希望把雷達的性能發揮到極致。而對雷達性能進行挖掘的一個重要做法,就是提高幀數,判斷障礙物狀態:

「減少誤識別的第二部分包括整合每隔 0.1 秒獲取的雷達快照,彙編成為現實場景的 3D 影像。(通常)通過單一影像幀,很難知道物體是移動的,靜止的,或者只是反光造成的虛像。通過比較包含車輛速度、預期軌跡信息的連續影像幀,車輛可以分辨前方物體是否是真實的,同時預估發生碰撞的概率。」

再看看前面那場悲劇,也就是說,在 Autopilot 系統 8.0 中,特斯拉通過充分壓榨雷達的性能終於解決了少數攝影鏡頭在極端情況下誤判的問題,反過來說,如果沒有解決這個問題,那這個大版本更新又如何能衝淡人們對 Autopilot 系統安全性的擔憂?

但事實上毫米波雷達存在著很多問題,比如識別人像不如攝影鏡頭,對木質和塑料物體的識別存在嚴重問題。另外任何凹型的金屬表面(比如,一個易拉罐?)都會被識別為「大型的危險障礙物」。

針對這些問題,特斯拉通通做了細緻的優化。為了解決誤識別障礙物從而導致頻繁剎車制動問題,新系統對現有硬體進一步挖掘,讓雷達可以探測到的周邊的物體(數量)達到以前的六倍,並且有能力在每一個物體上獲得更多細節信息。

六倍於之前系統的探測物體,再加上毫米波雷達擅長穿透周圍的障礙,以及探測更遠距離以外的障礙的固有特性,今天這則新聞的路況幾乎可以說是雷達應用的最佳場景了,避免車禍的發生也就顯得合情合理了。

Tesla Vision

對雷達性能的深度挖掘似乎解決了發展自動輔助駕駛系統遇到的難題,然而同時也帶來了新的難題,由於特斯拉把此前車禍原因歸結為 Mobileye 的攝影鏡頭和視覺識別晶片誤判,直接導致特斯拉與昔日合作伙伴 Mobileye 反目成仇,最終二者分道揚鑣。

擺在特斯拉面前的難題是為隨後面世的新車所需的視覺處理晶片及系統尋找新的合作伙伴,或者乾脆自研——畢竟視覺處理晶片市場的優秀企業並不多。

果然,今年 9 月,特斯拉證實了自家 Tesla Vision 項目的存在。再加上今年早些時候,特斯拉招募了 AMD 知名微處理器工程師 Jim Keller 為 Autopilot 硬體工程副總裁、以及幾位來自蘋果等公司世界級晶片架構師,Tesla Vision 項目打造一套基於 Nvidia CUDA 並行計算平台的端到端計算視覺框架計劃逐漸浮出水面。

據特斯拉發言人表示,該系統能夠從攝像頭傳感器採集原始數據,然後由特斯拉汽車控制和進行影像處理。它將結合深度神經網路訓練,並配合特斯拉近期發布的雷達處理技術不斷優化。也就是說,Tesla Vision 項目將與 Autopilot8.0 的雷達探測技術緊密結合,通過官方服務器收集大量的行駛數據積累,讓 Autopilot 變得越來越「聰明」、越來越安全,並為即將推出的無人駕駛系統的研發鋪路。

舉個簡單的例子,在我們前段時間對 Autopilot 8.0 的評測中,在進行變道操作時,依然需要人來打轉向燈,此後車輛會在確認盲區沒車沒有危險的情況下,進行相應變道。當然了,你也能想見,在變道還需要人來打燈的情況下,特斯拉就更不可能知道從哪個路口上下高速/環路,進行左拐、右拐等操作了,現在要想到達目的地,仍需要人來決定走哪條車道、如何走。

而在 Tesla Vision 的設想中,車輛可以自行變道、進行相應車道的選擇、上下高速路口,也就是說,人類駕駛員輸入起止點,就能一鍵到達目的地的場景已經進入特斯拉藍圖了。

不過,還是那句話,在沒有無人駕駛技術完全成熟之前,我們是事故負責人,照著特斯拉的指示做到「手握方向盤,隨時準備接管車輛」,不必非要玩了吧。

延伸閱讀

【Elon Musk 又開示了】特斯拉類神經深層網路快完成,2017「智慧型召喚」愛車自動開到家門口
【我認真的】Elon Musk:塞車讓人抓狂!我要直接在地底挖隧道,快速通車!
【淨利達到 2200 萬美元】特斯拉發布超亮眼財報, 燒錢這麼兇還能轉虧為盈,真猛!

(本文經合作夥伴 36 氪授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈一場事先避免的車禍——特斯拉 Autopilot 進階之路 〉。)


科技報橘 LinkedIn 上線!

最新科技產業動態、技術新突破、專業職能技巧提升 ....... 鎖定 TO  LinkedIn 專業品牌,提升職能與產業 Know-how,躋身產業菁英之列 https://www.linkedin.com/showcase/techorange

點關鍵字看更多相關文章: