為何自駕車要找「人類學博士」一起研究?為了解決人類無理取鬧的天性

【我們為什麼挑選這本書】自從 2016 年特斯拉自駕車事故後,已經過了 3 年;自駕車技術也因為 AI、深度學習等進步變得更機靈、更人性。但是自駕車車體長大了、變厲害了,系統上還是沒有解決人類社會的道德難題。

史考特‧哈特利寫《書呆與阿宅》,藉 Nissan 找人類學博士加入自駕車研究為起頭,問自駕車開發商一個大問題:如果自駕車因避開來車,緊急轉向撞死人,社會該怎麼判定對與錯?(責任編輯:陳伯安)

汽車製造商日產(Nissan)延攬萊斯大學 人類學博士梅莉莎.賽夫金(Melissa Cefkin),為該公司的汽車設計做評估,並請她進駐日產技術中心, 主導公司的人機互動研究 。目前她正率領團隊研究自動駕駛汽車與人類在進行各種可能的互動時所衍生出的複雜性,以及這些複雜性對汽車設計與控制的影響。

接下來先簡要分析一下自動駕駛汽車的前景與隱憂,來思考梅莉莎的投入為何有其必要。

從 2016 年的特斯拉車主事故來看,自駕車面對的挑戰

自動駕駛技術的實施這項工程壯舉,可以說是令人嘆為觀止的重大成就,但從安全隱憂來看,還是有許多爭議性的問題有待解決。2016 年,一位駕駛配有全自動駕駛模式技術的特斯拉汽車(Tesla)車主慘死,凸顯了當前自動駕駛汽車的設計者在為所有危險擔起責任的同時,也有他們的侷限。

該駕駛出事時的行駛環境其實並不複雜:那是一條寬敞的公路段,當時自動駕駛系統未能偵測到有一輛貨櫃車切換車道後,開到這輛特斯拉的前方。事故後的分析發現,自動駕駛系統偵測不到貨櫃車在強烈陽光照射下的白色車身。該車主可能因為太過於信任自動駕駛,放心地欣賞《哈利波特》(Harry Potter)的電影而沒有看著路面,以致於未注意到前方的貨櫃車。

專家多半認為,馬路上其實會出現很多自動駕駛汽車的安全行駛技術到目前為止尚無法應付的狀況,比方說路面有淹水、大坑洞、掉落物,或者是出現改道標誌這種臨時交通管制措施時。 賽夫金目前的研究重點就是自動駕駛汽車行駛於更為擁擠的都市環境、面對本來就無法預測又非重複性的複雜狀況時,會遭遇哪些瓶頸

自駕車最大的挑戰之一就是:人的「無理取鬧」

現今自動駕駛汽車的設計者最艱鉅的挑戰之一,就是處理人機混合的環境 。這種環境最終或許都可以統一由機器來運作,但在可預見的未來,基本上還是會出現各種複雜的狀況。機器是可以設定成講求效率又守規矩,但愛找麻煩的人類喜歡破壞規則,總是用複雜到很難讓機器也學會的詮釋方式,對各個狀況逐一分析。

就拿沒有紅綠燈但設有「停」這個標誌的繁忙十字路口來說, 行經的汽車不是不守交通規則,就是喜歡臨場發揮 ,比方說車主這裡揮個手、那裡用粗魯的動作示意,或甚至有些車龜速到被後方心急的車主催著跑。

人類學家愛德華.薩丕爾(Edward Sapir)曾在文章中提及 人類微妙的手勢系統是「精巧奧妙的不成文密碼,但沒有人不懂」。自動駕駛車輛還無法感知與了解人類的手勢,機器只知道在標誌前停下,所以必須靠賽夫金幫機器思考接下來該怎麼做以及如何成功地周旋於複雜的人際互動之中。

為了完成這個任務,賽夫金必須先找出人類的行為模式,才能幫助程式設計人員了解自動駕駛汽車在道路上應該如何行動。她借用了不少人類學界的工具來找出這些模式,比方說民族誌當中用來實際觀察各民族的田野調查法及記錄其行為的錄影方式等等。

自駕車系統需要將人類的心理層面納入考量

她的主要目標就是協助日產設計一種溝通系統,以利自動駕駛汽車跟行人及其他車主互動。譬如顏色辨識燈就可以顯示汽車現在正準備發動、停下還是留在原地,又或者可以設計某種視覺裝置,讓人們一看就知道這輛自動駕駛汽車是否已經注意到他們。

也許汽車前方可裝設螢幕,用來顯示文字,方便傳達訊息,就像人類手勢的功用一樣。除了溝通上的問題之外,還必須要考量到駕駛人的心態,才能讓自動駕駛汽車安全進入我們的道路,比方說有些人會因為「快車道」上某輛車的行駛速度比車流速度還慢而火冒三丈,更別提那些容易暴怒的駕駛人了。

據麥肯錫顧問公司(McKinsey & Company)資深合夥人漢斯- 維爾納.卡斯(Hans-Werner Kaas)表示:「整個汽車製造業已經逐漸意識到有必要處理自動駕駛汽車所涉及到的心理層面,紛紛加強這方面的技能 。」

盡可能抓出所有待解決的後勤問題,只不過是實現汽車自動駕駛的第一步而已,很多極其複雜的道德問題依舊存在。2016 年《科學》雜誌(Science)6 月號有一篇題名為 〈自動駕駛汽車的社會困境〉(The Social Dilemma of Autonomous Vehicles)的文章就指出,今日自動駕駛汽車碰到的問題,其實與 1967 年英國哲學家菲力帕.芙特(Philippa Foot)所發表的知名思想實驗「電車難題」(trolley problem)息息相關。

當自駕車碰到電車難題,該怎麼設定系統才是「對」的行為?

在電車難題中,假設軌道上有一輛電車正朝著五名工人疾駛而來,一名目睹此狀況的工人可以用控制桿將電車切換到另一條軌道,但那條軌道上又有另外一名工人,這位操作控制桿的工人該怎麼做才對?自動駕駛汽車所面臨的難題很就跟這位工人很類似。

應該將汽車設計成優先考慮駕駛人和乘客的生命,不必去管有可能突然轉進軌道的行人或自行車騎士嗎?假如汽車可以馬上右轉避免撞到人,但有可能因此撞上擋土牆,或是有更高的風險,比方說撞到正在人行道上等燈號轉換的一家三口,那麼這輛汽車該怎麼做才好?雖然自動駕駛汽車被稱為「自動駕駛」,但實際上只是根據程式設計人員的設定,在程式碼的輔助下,依所學到的規則行駛而已。

應該把汽車「教」成在碰到這類狀況時都要設法迴避,還是先計算乘客所承受的風險,然後在不讓乘客受傷的原則下轉向?

又或者應該將汽車設定成依大多數人在類似狀況下會有的反應來反應?難道人類在這種狀況下會有某種常見的反應,又如果真有這樣的普遍行為,自動駕駛汽車就應該仿效或改良成更好的做法?寫入軟體中、由程式碼所界定的決斷力,可以像現今失效的安全氣囊那樣被「召回」嗎?

倘若自動駕駛汽車可以比人類更快做出反應、更快算出所有選項的風險,並且一定會選擇最佳選項,救最多人的命,法律不就該明文規定汽車除了一定要有這種程式設計,也必須在遇到上述危險狀況時全交由車輛來作主判斷?切換成人類車主接手駕駛這個選項是不是也該自動停用才對?

另外,自動駕駛汽車若是證實比人類駕駛更安全又更節能,那麼汽車公司是不是有必要加快開發的腳步?畢竟大家先前就是這樣,希望汽車公司加速開發更節能、可降低碳排放量的汽車。

這些問題都還只是隔靴搔癢,並未觸及到勢必得解決才能將自動駕駛汽車導入人類日常生活的重大議題。

如果要求乘客搭車前同意上述責任義務,這樣就夠了嗎?

如果要求乘客點選「是的」,表示接受其責任義務,就像一般人在下載最新的廣告封鎖軟體時要點按的那種條款和規定一樣如何?這麼做就夠了嗎?哈佛心理學家約書亞.格林(Joshua Greene)在他為《科學》雜誌所撰寫的文章 〈無人駕駛汽車的困境〉(Our Driverless Dilemma)中,探討了這種複雜性的根源。

他指出,機器在做決定時「偏哲學性而不講究技術性。人類應該先設法讓自己的價值觀更明確且前後一致,再將價值觀植入機器中。」對年輕的倫理主義者和訴訟律師來說,這顯然是一個欣欣向榮、值得一探究竟的業務領域。國際性法律公司歐華律師事務所(DLA Piper)已經推出「連結與自駕式汽車業務」,而現年 33 歲,畢業於范德堡大學,主修美國研究,後來在康乃爾大學受訓成為律師的艾略特.卡茲(Elliot Katz), 正是該業務的全球共同負責人,他就思考了不少這方面的議題。

(本文書摘內容出自《書呆與阿宅:理工科技力+人文洞察力,為科技產業發掘市場需求,解決全球議題  》,由 寶鼎 出版社授權轉載,並同意 TechOrange 編寫導讀與修訂標題,首圖來源:Pxhere, CC Licensed。)

延伸閱讀

Google 人資團隊從「資料科學」角度解密:為什麼某些團隊績效就是特別突出?
讓科技變成名牌!Apple 如何賦予消費者「尊榮感」,讓消費 3C 也能當奢侈品賣?
模仿賈伯斯演講奪下標案,土木工程師怎麼靠「會演講」年薪逼近 750 萬台幣?

點關鍵字看更多相關文章: