當前位置:
首頁 > 知識 > 自動駕駛 Uber 撞死行人,為什麼說這類事故發生是遲早的事?

自動駕駛 Uber 撞死行人,為什麼說這類事故發生是遲早的事?





題圖:Public Domain




相關新聞




3 月 20 日消息,據舊金山紀事報報道,Uber 的一輛無人駕駛汽車日前在美國亞利桑那州坦佩市撞死一名女子。當地警察局長表示,初步調查顯示,Uber 的無人駕駛汽車並無過錯。




來源:網易科技




Uber 全球第一起自動駕駛致其死亡的不幸事件發生,反映了哪些問題?會有何影響?



知友:周博磊

(100+ 贊同,深度學習、機器學習、人工智慧話題優秀回答者)




這個算是第一個公眾眼裡的 AI 致死事件,也是意料之中的事情,Anything that can go wrong will go wrong. 為死者惋惜。



這個事件帶來兩個核心問題,一個是為什麼事故會發生,另外一個是到底是誰的責任。




為什麼事故會發生,簡單來說是 AI 作出錯誤決策導致事故發生,那到底為什麼 AI 會作出錯誤決策,這就涉及 AI 模型的可解釋性(explainability)和透明性(transparency)。




目前連圖片分類神經網路的解釋性都還沒解決,對於自動車如此複雜的系統,要解釋明白為什麼沒檢測到行人以及為什麼沒有制動,我覺得是個非常難的問題,因為我自己的一個研究方向就是 AI 模型的可解釋性。



解釋 AI 模型的決策還任重道遠,好在這兩年大家也意識到了這個問題的重要性,相關研究工作多了起來,比如說美國國防部DARPA 的 Explainable AI 研發項目,就是力求開發出更具有解釋性的模型。




AI 模型解釋性也涉及 AI 的立法管理。




去年歐盟就頒布了一個法令 GDPR (General Data Protection Regulation),其中一項是 Right to Explanation: a user can ask for an explanation about an algorithmic decision made about them。




大概意思是,民眾有權利要求機器演算法解釋其作出決策的原因,也是希望提出的 AI 模型能更具透明性和可解釋性。




關於此次事故的技術調查,我也會繼續關注。




這次事件帶來的另外一個問題是,人命關天到底是誰的責任。




自動駕駛汽車出了事故,責任是屬於汽車所有人?操作員?乘客?生產車廠商?還是 AI 演算法科學家?程序員?或者背鍋臨時工?



這是個非常困難的問題,而且並沒有相應的法規和立法。這個問題,深層次又涉及 AI 的倫理。比如說讓 AI 來解這個倫理學上的經典問題 Trolley Problem,機器又會做出如何的選擇。




打個岔,針對這個 Trolley 問題, MIT 的 media lab 搞了個挺有意思的實驗平台 Moral Machine:其在上面設計出了一些場景,讓人來思考自動駕駛系統會作出如何的決策。




比如說下面第一個場景是,一個失控的自動駕駛系統,如果繼續前行的話會造成 5 個嬰兒死亡,轉左的話會造成 2 名乘客死亡,那演算法應該如何作出決策?



第二個場景是自動車直行造成一部分行人受傷,左轉的後果不確定(有可能造成行人傷亡,有可能無恙),那演算法又該作出怎樣的決策呢?




研究 AI,並不一定需要非常 technical,這種從心理學倫理學社會學出發,也是一條路子。








總的來說,AI 造成傷亡事故,和 AI 戰勝人類最優秀的圍棋選手,都是發展過程中的必然。



其造成的影響,暴露出的問題,長遠來看還是對 AI 的發展,和人類社會針對 AI 的立法倫理都有積極推動意義。




知乎機構號:量子位

(300+ 贊同)




可能要從兩個方面思考這個問題:




首先 Uber 無人車撞人致死和自動駕駛是否真的安全,沒有必然聯繫;




第二,Uber 只是自動駕駛玩家之一,而且也不是最優秀技術的代表。




一個個說。




1)Uber 無人車撞人說明了啥?




只能說明 Uber 無人駕駛技術實在不怎麼樣。




先給大家介紹下事故始末:




美國上周日 22 點,在氣候宜人、自動駕駛政策友好的亞利桑那州郊區路段,一名 49 歲的女性行人沒有通過人行道而希望橫穿馬路(違章過馬路),被被 Uber 無人駕駛測試車撞倒,送醫搶救後死亡。




當時 Uber 無人車的情況是:車改裝自沃爾沃 XC90 SUV,後添加了 Uber 自主研發的軟體系統,使用了包括激光雷達、相機在內的感測器,確實是目前較為主流的自動駕駛方案。




並且,事故發生時,Uber 無人車上有人,但坐於後座。據稱車速 60 公里/小時,沒有剎車減速。




OK,事故目前細節基本就是這樣。




可以看出這麼幾個問題:1)周末夜晚,路況不錯,環境不錯;2)行人在非人行橫道突發闖路;3)Uber 無人車系統完全沒有識別、感知和決策。




所以也可以得出基本結論:悲劇的原因非常明顯——Uber 自動駕駛技術實在太差了!




在 L4 等級(完全無司機參與)的自動駕駛中,對於行人的識別是最基本、最必須的要求,雖然始發時間是夜晚(可能會影響相機發揮作用),但裝有激光雷達的 Uber 無人車,至少應該做到有效識別,然後減速剎車。




但 Uber 無人車都沒有,直接撞了過去。




有人可能說是行人違章過馬路,但假如連這樣的場景都解決不了,是不是自動駕駛以後要專門建設防行人穿過的車道?那我們要不直接建地鐵輕軌?




而且 Uber 也不是第一次發生事故了。




去年 3 月,也是在亞利桑那州,一輛 Uber 無人車發生車禍。




據 ABC 15 新聞台當時從當地警方得到的消息,警方沒有接到車禍中受傷的報告,事故發生的原因是一輛人類駕駛的汽車沒有及時減速。當時,Uber 的自動駕駛汽車沒有載客,駕駛座上有一名人類,但不清楚當時是人類還是計算機在開車。




Uber 隨後也表示「沒有人嚴重受傷」,公司也正在對事故進行調查。在此過程中,Uber 在亞利桑那、舊金山和匹茲堡的自動駕駛測試項目都暫停運行。




2)自動駕駛真的安全嗎?




不同於其他技術,自動駕駛人命關天,0.000001% 的缺陷,都可能造成 100% 的傷害,所以自動駕駛不會是絕對安全,有保障的技術。




然而,Uber 無人車撞人致死,與自動駕駛是否安全沒有直接聯繫。




因為 Uber 不代表最先進技術的發展水平。




誰能代表呢?谷歌的 Waymo。




前些日子,Waymo 宣布無人車實際路測里程達到了 500 萬英里(800 萬公里)——相當於繞地球地道跑了 200 圈。這是一個前無古人的數據,而且沒有發生撞人致死的事故。




並且還是在亞利桑那州,Waymo 去年試運行了一年,很多普通居民感受到了無人駕駛出行的魅力——晝夜不停、全年無休。




值得說明,一次事故都沒有發生哦。Waymo 今年還希望正式推出無人駕駛計程車打車服務。但現在經 Uber 無人車這麼一撞,感覺要很被動了。




說 Uber 是無人駕駛產業的豬隊友,一點不為過。




當然,即便 Uber 無人車此次發生致命事故,你也不能說自動駕駛不安全。




因為相比人類司機,自動駕駛系統可能更安全,從邏輯上講,人類會疲勞、會喝酒、會有一些有的沒的注意力不集中的時候,但計算機完全沒有這樣的問題。




從現實數據來說,光美國一年在交通事故中喪生的人數,平均每天就有 16 人。




但你不會看見任何報道。




而從 Google 開始搞無人車至今,差不多 10 年了,今天豬隊友 Uber 發生了史上第一起撞人致死的案件。




然後被全球矚目。




如果僅憑此認為自動駕駛不安全,是完全沒有道理的。




最後的最後,還是要哀悼這位名叫伊萊 - 恩赫茨伯格(Elaine Herzberg)的逝者,如果說一點積極的意義,那可能這次會讓人們更加關注自動駕駛帶來的影響,也會更積極地思考自動駕駛遭遇類似問題時,需要解決的問題。




當然,其中最不希望的就是因噎廢食。




知友:hu wang

(100+ 贊同)




目前具體事故的細節還不清楚,我先大概說說。等到有更多細節信息之後,再進行補充。




以現有的技術條件,無人駕駛撞死行人的事故是遲早會發生的。之前唯一的問題是,什麼時候會發生?




為什麼說無人駕駛撞死行人的事故遲早會發生?




從大的角度來看,任何技術都不可能是百分之百可靠的。隨著無人駕駛測試里程的增加,出現致命事故的可能性也會大大增加。




假設一萬公里里程測試中的無人駕駛出現致命事故的概率是 0.1%,那麼里程達到一億公里時,無人駕駛出現致命事故的概率會達到 (1 - 0.999^10000) ≈ 100%。數字不準確,但是基本原理如此。




無人駕駛的致命事故是可以預期、一定會發生的事情。不要覺得一萬公里和一億公里差了很多,Uber 可是要從沃爾沃購買 24000 輛車的。




以下部分為目前的推測,在事故細節披露之後會進行修改




具體到這次事故,目前還沒有細節信息透露出來。根據已有的一些信息,我做一些大膽的揣測。




由車輛停車位置還有撞擊痕迹來看,事故很可能是由行人沒有注意到後方來車,突然左轉橫穿馬路造成的。




根據警方發布會的初步信息,當時 Uber 車的車速是 40 英里每小時,也就是說 Uber 車並沒有因為行人而減速。




根據現場事故圖片可以注意到,行人開始左轉的時候,很可能已經處在 Lidar 的盲區。而車上 Lidar 以外的其他感測器很可能並沒有識別出「推著車 / 騎著車的行人正在左轉」。




車上演算法認為行人仍然在直行,最終撞了上去。或者也可能感測器正確識別了行人,演算法做出了反應,但是由於車速過快,車沒有能夠及時停下。




這讓人想起了 Uber 之前的一次無人駕駛事故(車被撞翻了)。兩次事故可能的共同之處在於,無人駕駛車輛的行為是合法的,但是又是不合常理的、不符合人開車的通常習慣的。




具體到這次事故。事故雖然很可能是行人的行為導致的,但是如果是人駕駛的車輛的話,通常不會在人行道有人行走的情況下,以 40 英里每小時的速度通過臨近道路。




考慮到安全因素,人駕駛的車輛,或者會減速,或者會考慮往左進行一些避讓。




有人提到了車上實際上是坐著安全員的。安全員的設置,並不能防止這種事故發生。




事實上,無人駕駛的安全員作出反應的時間,是比人類駕駛員自己開車的反應時間更長的。這是在討論 ADAS 或者低級別自動駕駛時,經常提到的 Over-trust 問題。這個問題具體展開講太大了,就不細說了。




最後作為一個業內人士,我一直對無人駕駛持非常保守的態度。




在這種和生命直接相關的技術領域,重要的不是知道技術能做什麼,而是理解技術還不能做到什麼。




這兩年國內的無人駕駛相關公司都在瘋狂鼓吹快速落地商業化,然而這項技術目前並沒有那麼成熟。也希望這次事故,能讓同行們引以為戒。




 本文內容來自「知乎」


 轉載請聯繫原作者 


 歡迎轉發到朋友圈~ 







知乎熱門文章


喝熱水致癌?這麼說可能是錯的


你堅持過哪些細小的好習慣?


不是所有人都適合早睡早起




為了推送更多大家喜歡的內容,知乎君特意準備了一個調查問卷,請戳閱讀原文填寫~


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 知乎日報 的精彩文章:

獨佔 95% 的下載量,《旅行青蛙》為什麼能在中國爆紅?
彭昱暢:在《演員的誕生》里享受表演

TAG:知乎日報 |