沒有人類因素干擾,自駕車真能 100% 零事故嗎?

autonomous car

【為什麼我們要挑選這篇文章】車禍原因中,絕大多數是人為疏失,因此科技大廠發展自駕車,就是期望交由機器駕駛,提升交通安全。然而特斯拉、Waymo 等自駕系統都發生過事故,還有人因此死亡。自駕車真的能夠做到零事故嗎?(責任編輯:郭家宏)

本文經 AI 新媒體量子位(公眾號 ID:QbitAI)授權轉載,轉載請連繫出處
作者:量子位

自動駕駛=無事故?

蔚來首例 NIO Pilot 致死車禍後,關於自動駕駛安全相關的話題討論愈演愈烈,一場信任危機正在殃及所有玩家。

甚至還形成了兩派觀點:

一派認為,「自動駕駛事故」面前,應該對所有的自動駕駛展開重估,因為技術能力有如此明顯缺陷,人命關天。應該叫停研發,禁止推廣,從根本上杜絶類似事故。

另一派強調,輔助駕駛的鍋,不能讓自動駕駛背,「真正的自動駕駛」就會有絶對的安全,自動駕駛=無事故。

一方限制,另一方辯護。

但對不起,都存在認知偏差,都可能阻礙一項利國利民造福人類的新技術健康發展。

既不能因噎廢食,也不宜把自動駕駛與零事故劃上等號。

不過確實是時候正本清源,釐清技術野蠻生長期裡遺留的種種歷史問題了。

自動駕駛的分級翻譯,遺留使用者認知的問題

最首要的就是自動駕駛技術等級劃分,以及翻譯用語加劇的「誤解」。

就在蔚來事故熱議中,理想汽車創始人李想、投資入局造車的 360 董事長周鴻禕,以及威馬汽車創始人沈暉,也都是圍繞自動駕駛技術等級相關的問題展開的討論。

有人說他們是作為友商在「落井下石」,但如果深入瞭解了他們口誅筆伐的「專業黑話」和統一用語倡議,就會真切感知——他們這是唇亡齒寒危機感下的自發自救。

因為自動駕駛技術等級相關的歷史遺留問題一日不明,行業野蠻生長、劣幣驅逐良幣的現狀就會始終得不到改變。

所謂的自動駕駛技術等級,核心就是這張圖:

其中的 level(水準/等級),就是 L 幾的「產業技術黑話」。

L2,就是 level 2,也就是第二等級水準。

L3,就是 level 3,也就是第三等級水準。

這套「等級」標準,跟一家名叫 Society of Automotive Engineers 的組織有關,簡稱 SAE,中文叫美國工程師學會。

在 2014 年全球自動駕駛研發,開始第一次欣欣向榮之際,SAE 牽頭制定了一套自動駕駛技術等級標準。目標是希望透過劃定不同的等級,可以指引產業針對性發展。

整個等級標準的制定,參考了很多影響因素。但最核心的可以歸納為一個:

AI 系統在汽車駕駛中的參與程度。

整個標準,被分為了 6 個級別:0、1、2、3、4、5。

L0,AI 參與程度最低,基本就是應急情況下輔助一下。

L5,AI 參與程度最高,高到整個駕駛行為完全不需要人類的地步,也被叫做完全無人駕駛。

例如現在常聽到的 RoboTaxi 無人駕駛計程車,或者是不再搭載剎車油門腳踏板和方向盤的智慧車,就是朝著 L5 方向上的努力。

在這 6 個等級中,有一個關鍵分水嶺:L4。

L4 以下,人類駕駛員都是駕駛行為的最終責任人。

L4 及以上,AI 系統就是最終責任人。

L4 是權責界限的分水嶺。

換而言之,L4 以下,無論是 L2 還是 L3,都是人機共駕模式,AI 系統提供的都是輔助能力。

區別在於,L2 是你操作什麼,AI 就執行什麼,比如車道居中保持、自適應巡航控制,以及你命令變道然後 AI 來伺機變道……都是 L2。L2 情況下,AI 完全不思考,也不主動做決策。

而 L3 最大的不同,就是 AI 開始能幫司機做決策了。最簡單的例子就是,什麼時候變道,人類司機不用再給指令。

在駕駛過程中,AI 會根據你的行程和路況來進行決策,甚至能在高速公路等非開放路況的場景下,幫助完成絶大部分的駕駛行為。

只是這個階段,人類依然是駕駛行為的核心決策者,所以特殊情況、緊急決策,依然需要人類駕駛員來執行。

所以現階段,各家產品有叫法上的不同,有 NOA、NOP、NGP。但基本都是指在高速公路等路況相對可控的場景的 AI 駕駛輔助。

援引 SAE 制定的術語和翻譯用語,他們確實可以被叫作「L2 自動駕駛」、「L3 自動駕駛」,甚至還有「L2.5 自動駕駛」。

但歸根究底,又都是輔助駕駛,都是 AI 提供輔助能力,最終駕駛的決定權,依然在於車主。這也意味著,如果發生事故,提供這種 AI 輔助能力的提供者,有最終駕駛決定權歸車主的擋箭牌可用。

問題是,自動駕駛本身已是新事物,技術等級標準更是行業黑話,普通車主和用戶,都缺乏完備認知。加之利益相關的技術提供者,還可能在售前只談自動駕駛,利用認知偏差造成誤導。

這是為什麼會出現「買前自動駕駛,出事輔助駕駛」,以及「車主未能正確使用」之類的神調侃、神回覆。

所以現在出了事故,這套 SAE 技術等級標準和翻譯問題,確實難辭其咎。

這也是為什麼到了產業需要統一用語的時候,用戶的信任和監管信心,經不起類似事故挑戰了。

但客觀來說,鍋也不全在SAE。因為就在 2014 年制定等級標準時,他們看到了 RoboTaxi 的終極目標,卻難以預料,圍繞自動駕駛技術發展,會走出不同主張的兩條路線。

自動駕駛的兩大路線:特斯拉、Waymo

特斯拉路線和 Waymo 路線。

最初 SAE 制定標準時,這兩大路線,只是推進自動駕駛的不同主張。還沒到開花結果,產生實際影響的階段。而這兩大路線,本質就是以 L4 作為分水嶺來實踐的。

剛才也說了,L4 是一個人類是否在駕駛行為中起決定性作用的分界線。

其中以特斯拉為代表,希望從 L4 以下疊代到 L4 以上,後來被稱為量產自動駕駛。

以 Google 集團中的 Waymo 為代表,則認定只有直接從 L4 開始,才是符合「安全初心」的做法,後來進一步作為區分,被稱為完全無人駕駛。

兩大主張和路線之間,也時常你攻我伐,口水仗一直未間斷。而且這兩大路線的開創者和最早實踐者,其實都是 Google;但後來,Google 認定不能走後來被稱為「特斯拉路線」的方案。

因為特斯拉路線認為自動駕駛可以在人機共駕的狀態下、在駕駛數據疊代下,不斷向上升級,最終從 L2 一直升級到 L5。

特斯拉所謂的影子模式,就是在這種人機共駕的狀態下,讓 AI 學習人類的駕駛行為。比如處於 AI 駕駛狀態時,忽然遭遇了困難,由人類接管完成了挑戰,就會被系統標記,其後由 AI 模型訓練和學習類似的問題,然後得到模型提升。

實際上,特斯拉路線也不斷展現其可能性和可行性。從這幾年來看,特斯拉的自動駕駛能力,進步確實有目共睹。而且特斯拉路線的優勢,集中體現在成本和規模化數據疊代上。車賣到的地方,就是它開啟自動駕駛道路測試的地方。核心要求是能賣更多車,並且自動駕駛方案的軟硬體成本在用戶可承受範圍內。

另外,特斯拉路線也存在明顯的悖論。

一方面,量產自動駕駛可以替代人類車主在一些場景下駕駛,但另一方面又要求司機在緊急情況下接管汽車。這就要求一個長時間放鬆的人,必須還要時刻專注在車程中。

換一個更多人有過的經驗,上課允許恍神,但只要老師點名提問,就能馬上給出答案。

很多車主的血淚經歷說明,處於放鬆狀態的司機,會看影片、會睡著,而且過度信任特斯拉視覺感知系統的能力。於是當老師點名提問,他們往往措手不及。

然而,開車上路,事關生命安全,代價有時是極其慘重的。

之前馬斯克說,車主用了自動駕駛就回不去了。被吐槽說,有些車主確實「回不去了」。

而且這個悖論下,特斯拉不是個例。只要是人機共駕狀態下,你不能要求所有司機一邊狀態,另一邊還能隨時接管。人,一直是駕駛行為中最不確定的因素。

也正是出於人性和悖論的洞察,Google(Waymo)主動改弦更張,決定挑戰更難的完全無人駕駛路線。

作為全球這一波自動駕駛商用浪潮的開創者,Google 最初也是希望打造一套人機共駕的系統,逐步實現 RoboTaxi 的 L5 終極目標。

但後來研發和測試階段,就發現駕駛決策中只要有最大不可控因素「人類」存在,就沒有真正的安全保障可言。

當時隨著研發的系統越來越完善,測試車上路後被接管的次數越來越少,導致有些工程師乾脆跑到後座去。於是 Google 開始重新思考自動駕駛的推進路線。

因為從初心來講,Google 決定重金砸向自動駕駛,就是為了用穩定嫻熟的 AI 駕駛,提高人類整體駕駛水平,有效減少大量的交通事故。

安全既是出發點,也是最終歸宿。

但如果無法 100% 控制全局,例如相對成熟的 AI 駕駛系統給了一個不太負責任的人類司機,最後由於司機過度信任,在遭遇極端場景時無法有效接管,就會造成安全事故。

當然,也有一種說法,事故也是 AI 系統 debug 的過程。但用這樣的方式來推進自動駕駛,一將功成萬骨枯,是不是太過冷酷無情?

所以 Google 之所以是 Google,並非沒有原因,他們決定選擇更難的一條路:直接 L4。直接把代表不確定因素的人類,從駕駛位上趕下來。最終產品形態,就是 RoboTaxi。

於是這條直接 L4 的路線,也就被叫做 Waymo 路線。這是一條先道路測試,在一個足夠安全有保障的成熟系統之後,再開啟量產和商用的路線。

這條路線優點顯而易見,安全至上,成本優先級不算高,可以用最冗餘的感測器方案來保障安全,畢竟車不向 C 端銷售。但缺點也很明顯,推進起來沒那麼快,商業化和規模化的速度也嚴格受限。

在 Waymo 路線上,所有的研發、落地成本都需要自己承擔,規模化獲利更是遙遙無期。所以這 2 年來,特斯拉和 Waymo 在資本市場遭遇了兩極待遇,特斯拉市值股價節節高昇,Waymo 的估值被一而再下調。

而也是這種此消彼長之間,還長出第三種路線:Cruise 路線。

直白講就是「融合路線」,把 Waymo 的 L4 級自動駕駛技術,兼顧成本之後,落在量產車上使用。總之,一方面是看到了特斯拉路線的數據疊代之力,另一方面又希望透過 Waymo 路線來增強安全保障。

但即便如此,只要沒有擺脫人機共駕模式,人性悖論和權責歸屬的問題,就始終沒有消除。安全隱憂,也就無法根治。

所以問題也就來了,既然現階段的自動駕駛無法根治安全問題,為什麼還要發展?還是燒那麼多錢、給那麼多有利政策來支持發展?

自動駕駛≠無事故,但只有自動駕駛才能根本上減少事故

是的,確實有理想化觀點這樣認為:

發展自動駕駛,讓天下沒有交通事故。

也對,但也不對。

對,是因為如果果真達到了理想化情況,路上皆自動駕駛車輛,或許就不會有不文明駕駛、違規的行為了,車車都文明,車車上路都穩妥,交通秩序跟自動化流水線一樣井然有序。

但之所以也不對,是因為這種理想化觀點,不符合數學和技術規律。

於本質來看,自動駕駛,機器開車,是一個電腦問題,更是一個數學問題,在這道題中,始終存在一些細微的變數,讓事故機率不可能完全為 0。更何況,自動駕駛面對的複雜長尾場景和狀況,事故機率也不可能為 0。所以自動駕駛 = 無事故並不成立,也沒有誰能打包票。

然而即便如此,自動駕駛依然有著更高的安全性,也是目前消解人類交通事故最接近本質的方法。

人類駕駛為主的交通安全,有著怎樣的現狀?

援引去年 12 月「第九個全球交通安全日」的數據,在機動車保有量超過 3.6 億、機動車駕駛人達到 4.5 億的中國,每年就有數萬人喪生於交通事故。更直觀的換算,平均每 8 分鐘就有 1 人因車禍死亡。

全球範圍內,按照 WHO 在 2018 年披露的數據,全球每年因道路交通死亡人數高達 135 萬人,意味著每 25 秒就有一人在交通中喪生。

其中,發生交通事故的主要原因,是最大的不確定性因素:人類司機。

無論中外,按照數據統計,肇事突出的 10 大交通違法行為分別為:未按規定讓行、超速行駛、無照駕駛、醉酒駕駛、未與前車保持安全距離、逆向行駛、違反交通號誌、酒後駕駛、違法超車、違法會車。

同時,還有酒駕醉駕、三超一疲勞(超速、人員超載、貨物超載、疲勞駕駛)、闖紅燈等交通違法違規行為。

但如果替換成 AI 司機,這些隱患行為和因素,就會從根本上被杜絶。AI 司機不僅不會有人類司機的疲勞駕駛、醉駕酒駕、情緒化,以及各種危險駕駛和不文明駕駛行為,而且還擁有人類無法「規模化複製」的優勢。一個 AI 老司機養成,即意味著成千上百 AI 老司機 ready。相對應的是,人類從新手上路到老司機養成,繞不開線性時間和路上的磨練。

所以大道直白,雖然自動駕駛無法保證天下再無事故,但有自動駕駛,替代了交通中最大的不確定因素,一定能讓交通更安全。

此外,還有一組數據也可對比。

量產自動駕駛路線中,事故曝光率最高的特斯拉,凡有事故幾乎無處隱藏。所以也有好事者,統計了特斯拉及 AutoPilot 造成的事故和傷亡情況。

統計顯示,從特斯拉 2013 年第一起曝光的事故至今,全球因特斯拉事故造成的死亡人數達 201 人,其中 9 人與 AutoPilot 相關。Waymo 路線上,全球唯一一起無人車致死車禍,由 Uber 測試時造成。而對比起來,全球每年有 135 萬人在道路交通中喪生。

雖然這幾年中,自動駕駛依然是一個新業態,方興未艾,還遠未達到數量上的普及,但上述兩組數據和頻率,依然能見微知著。

所以即便自動駕駛≠無事故,但只有自動駕駛才能根本上減少事故。更何況,現今正在有越來越多冗餘來加強安全,例如車端的感測器冗餘、安全冗餘,運營過程中的冗餘,以及中國正在高速推進的路端基建,車路協同帶來的更高維度的冗餘。

在這些多重冗餘保障之下,如果真正來到全部自動駕駛狀態,事故中的不確定性,還將進一步趨近於 0。

有設想是,這些基礎設施完善後,可以保障所有上路的車輛都由自動駕駛,不再有人機共駕,也不再有人類駕駛的車輛和自動駕駛車輛混行。人類司機,這個道路交通上最大的不確定性因素,也就沒有了。

甚至跟汽車替代馬車一樣,人類駕駛行為就跟騎馬行為一樣,變成了一種娛樂活動,甚至如果不是特許的道路,人類駕駛行為還會違規違法。自動駕駛將完全接管城市出行網絡。

這個網絡中,電動車(新能源)、共享出行、車聯網,以及智慧化都實現了串聯。車隨用隨叫,可以不再需要停車,沒電了自動規劃去充電,真正實現了高效、綠色、安全和低碳環保可持續,車真正變成了使用載體,而不是擁有主體,私家車從此退出歷史舞台。

這個網絡之下,自動駕駛車輛可以一體化運營、調度,就像現在的通訊運營模式一樣。所以這也是為什麼,業內還有另一個隱而未宣的觀點,認為自動駕駛背後,也有 5G 一樣的「標準」之爭。因為自動駕駛不是單一的一項技術,是一個從無到有、從個例到規模化落地的系統生態。而且這不是一個地區、一個國家才需要的系統,是全球各地都需要的系統。

對於這個系統,誰最先擁有完備的方案和技術能力,就能成為標準的制定者,就能主導整個落地生態的發展。也正是如此,在美國奇貨可居的先進技術限製出口中,自動駕駛地位很高。

但自動駕駛的技術發展和疊代,離不開大規模的數據和豐富的場景。這也是中國在自動駕駛落地上,越來越展現出優勢的關鍵原因。

原本就跟全球處於同一起跑線,現在還有豐富和最具挑戰的路況數據、場景。所以這也是為何自動駕駛的發展,更加不能因噎廢食。因噎廢食不僅無法根本上解決問題,而且還誤國誤民,流弊千秋。

根本上,自動駕駛不僅是一項先進技術,還事關智慧交通、智慧城市等面向未來的全球標準和話語權,甚至是經濟發展和 GDP 的新動力引擎之一。

不過,現階段自動駕駛發展,也不是沒有安全路徑上的可完善之處。

更安全發展自動駕駛,還能做什麼?

既然問題已經出現,就是時候在熱議中推動形成共識。

實際上,在監管和政策層面,中國可能已經是全球最謹慎的國家。特別是在之前自動駕駛和 RoboTaxi 測試的資質和牌照發放中,從程序到過程,比美國加州 DMV 嚴格太多。

根據中國目前官方唯一的自動駕駛路測報告:《北京市自動駕駛車輛道路測試報告》披露,考核標準相當嚴苛,無論從公開道路的長度、還是標準制定程度上來看,都堪稱細緻。還專門設置了 64,827 公里的無人化測試驗證,確認了測試技術的可行性、及測試方法和參數的可靠性。

而更早之前,有安全員的自動駕駛路測,也從牌照發放和運營等多重維度作出明確要求。

也是這種監管之下,中國路測里程最多的百度 Apollo,完成多個城市 RoboTaxi 落地營運,有 1,400 萬公里的實路路測後,能夠做到零事故。

國外,Waymo 再次開行業風氣之先,在去年發佈了事故報告,披露從 2019 年初到 2020 年 9 月,RoboTaxi 落地期間的事故情況。

顯示在 Waymo 的 610 萬英里(982 萬公里)路程中,包含沒有安全員的完全無人駕駛的測試里程也有 65,000 英里(10 萬公里),總共出現過 18 次事故,另外還有 29 次被安全員干涉得以避免的潛在事故。

但這些事故有兩大共同特點:

第一,沒有一起嚴重到危及生命。

第二,無一起主動事故,都是其他人類駕駛車輛造成的被動事故。

所以對於 RoboTaxi 方向上的自動駕駛,從監管到測試,一直有數據支撐的安全可信印象。

但量產自動駕駛——或者更準確來說,需要人機共駕的輔助駕駛,之前有灰色地帶可走,處於野蠻生長。一度只有道德標準,沒有嚴格的監管法規,但這種日子也正在成為過去時。

8 月 12 日,中國工信部印發了《關於加強智能網聯汽車生產企業及產品準入管理的意見》,對智慧車在數據和安全方面,作出了明確規定。

其中最引人注目的,就是針對涉及自動駕駛功能的產品管理,按照使用前後做了不同層級的要求明確,強化車企在安全方面的責任。並且明確規定,自動駕駛相關的功能 OTA 要先過審批。

國外,特斯拉 AutoPilot 相關的事故,也開始被美國管理機構立案調查。所以即便是擦邊球路徑上的「量產自動駕駛」,野蠻生長期也到頭了。

只不過蔚來事故之前,「完全無人駕駛」和「量產自動駕駛」兩大路線之間,有爭論有口水仗,雙方以為可以各自為戰。

然而誰能想到,在事故後的不信任危機裡,輿論不分路線,所有人都被同一條船視之。一榮俱榮,一損俱損,沒有誰能獨善其身。

不管是 L 幾的技術,不管是量產自動駕駛路線,還是完全自動駕駛路線。不管是車廠、供應商,還是系統技術玩家。一切是時候了,是時候以這次事故為鑒,直面一直存在的認知和信任危機。而且只有所有玩家團結一致,達成公約,才能讓發展更安全、可持續。

至少是時候改變,且有三件事可以從我做起:

第一,規範使用產業用語,統一表達,明確權責歸屬。

但凡人機共駕,需要司機、車主緊急接管的,一律都叫輔助駕駛。否則出現事故,無論是不是車主未能及時接管,都應由能力提供方承擔責任。無需司機、車主緊急接管,或者責任明確就是技術服務提供方,才能以自動駕駛作為宣傳。

第二,輔助駕駛的上車,還要有多重安全冗餘配合。

不僅需要在使用前,明確向車主表明輔助駕駛系統的利弊,加強功能使用端的準入考核和監管。還需要防止不靠譜車主,輕而易舉就可以繞過輔助駕駛開啟的必要規則,以及雙手離開方向盤、注意力不集中等危險駕駛行為。

此外,DMS 等駕駛行為監測,應該成為輔助駕駛的標配,不僅是保護車主安全,也是保障其他路上交通參與者的安全。

私自加裝作弊器等行為,應該要與危險駕駛行為一樣被對待。還有必要主動呼籲打擊銷售作弊器的行為,呼籲立法監管,由各大零售平台打擊,不能讓如此等同謀財害命的行為,大行其道。

第三,定期主動披露安全機制和數據。

安全機制可以增進產業信任,安全/事故報告能夠讓一切更公開透明,唯有擺脫談事故色變、諱莫如深的心態,產業才能真正健康良性發展。這也是不斷科普,幫助大眾更加準確了解自動駕駛能力、狀態和階段的必要手段。

總之,事故當前,信任危機當前,警鐘為所有自動駕駛玩家而鳴。

如果此時此地,還不能用更具公約的方式,發展和推動自動駕駛安全和信任,等到更大危機到來,沒有人能置身事外。

如果依然要在輔助駕駛、自動駕駛等行業話語上爭論不休,如果讓每一次自動駕駛事故成為輿論焦點,如果行業玩家都不得不誇張宣傳才能不顯得落後,雪崩到來,沒有一片雪花無辜。

一切是時候了。

(註:作者為量子位主編,專欄僅代表個人觀點)

參考資料:特斯拉事故統計Waymo 自動駕駛報告WHO 道路交通死亡人數報告

(本文經 AI 新媒體量子位 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為〈对不起,自动驾驶做不到零事故〉。首圖來源:Shutterstock)