Nature大型調查:當AI遭遇電車難題,它將拯救誰?
新智元報道
來源:the Verge
編輯:三石,肖琴
【新智元導讀】隨著自動駕駛汽車的普及,其安全性問題被社會廣泛關注。人類在遇到車禍時會本能的對「先救誰」進行選擇,而若是以編程形式讓自動駕駛汽車也具有這樣的功能,道德決策又將如何選擇?今日,MIT在Nature上便發表了題為「道德機器(the Moral Machine)實驗」的論文,對該問題進行了研究與探討。
「我和你的老母親同時掉進水裡,你先救誰?」
這道世紀難題令多少英雄好漢競折腰,那麼如果讓自動駕駛汽車通過程序自行判斷,結果又將如何呢?
讓我們先來回顧近期慘不忍睹的自動駕駛車禍事故:
2018年3月18日,Uber自動駕駛汽車衝撞一路人女子,該女子不幸身亡;
2018年1月10日,福特投資的Argo AI發生交通事故,導致車內兩人受傷;
2016年5月7日,特斯拉Model S與挂車相撞,駕駛員不幸身亡;
2016年1月20日,京港澳高速,特斯拉轎車撞上作業車,駕駛員不幸身亡;
......
隨著自動駕駛的普及,人們在享受便利與高效的同時,也必須考慮自動駕駛的安全性問題。這對社會來說也無疑是增添了一份負擔:對汽車進行編程,在發生交通事故的時候,使其具備優先拯救哪些生命的能力。
在這種情況下,人類駕駛員肯定會本能地去選擇先救誰,但是對於演算法來說,這道選擇題應當是提前就有答案了的。那麼汽車公司和政府又會做出怎樣的選擇呢?救老人還是孩子?救多數人還是少數卻很特殊的人?
今天,MIT發表了一篇論文,探討了公眾對這些問題的看法,並整理了2016年啟動的一個名為the Moral Machine(道德機器)的在線測試數據。
The Moral Machine實驗
它要求用戶對虛擬的車禍做出一系列道德決策,類似於著名的「電車難題(trolley problem)」。
「電車難題(Trolley Problem)」是倫理學領域最為知名的思想實驗之一,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。幸運的是,你可以拉一個拉杆,讓電車開到另一條軌道上。然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?
研究人員對9個不同的因素進行了測試,其中包括用戶更傾向撞到男性還是女性,選擇拯救多數人還是少數人,犧牲年輕人還是老人,普通行人還是橫穿馬路的行人,甚至還會在地位低和地位高的人之間做出選擇。
The Moral Machine中的一個場景示例:用戶應該撞向路人還是障礙物?
來自233個國家和地區的數百萬用戶參加了測驗,共計制定了4000萬個道德決策。 根據這些數據,該研究的作者發現了一些較為一致的全球偏好(global preference):更傾向於拯救人類而不是動物、拯救多數人犧牲少數人、優先拯救兒童。
因此,他們認為,在為自動駕駛汽車制定法律時,這些因素應被視為政策制定者的「基石」。 但作者同時也強調,這項研究的結果絕不是演算法決策的模板。
論文的協作者Edmond Awad說:「我們試圖展示的是描述性倫理,即人們在道德決策中的偏好,但是,如果涉及到標準的道德規範時,該如何做出選擇,這應該由專家來決定。」
數據還顯示,不同國家的道德偏好存在顯著差異。這與許多因素有關,包括地理位置(例如,歐洲和亞洲國家之間的差異)和文化(個人主義社會和集體主義社會)。
值得注意的是,雖然在未來的某個時間必須開展這些決策相關的工作,但自動駕駛技術仍有很長的路要走。 自主性仍然處於起步階段,自動駕駛汽車仍然是原型,而不是產品。 專家們還說,雖然目前尚不清楚這些決定將來會以什麼樣的編程方式與車輛進行結合,但顯然還是需要進行公眾諮詢和辯論的。
加州理工大學倫理+新興科學小組主任Patrick Lin說:「由於自動駕駛汽車是第一個大規模融入社會的AI產物,所以在自動駕駛方面所發生的一些列事情都將為其它人工智慧和機器人技術定下基調。」
文化如何影響道德偏好?
Moral Machine調查得出的結果表明,在涉及到這些道德困境時,有一些共同的原則。但該論文的作者還發現了一些偏好上的差異,這些差異遵循著一定的分類。這些差異沒有一個是違背核心原則的(例如少數服從多數的原則)但它們確實在一定程度上有所不同。
研究人員發現,在亞洲和中東的一些國家,比如中國、日本和沙烏地阿拉伯,「保全年輕人而非年長者」的傾向「不那麼明顯」。與來自歐洲和北美的人相比,這些國家的人也相對較少地關心保全「高凈值」個人。
這項研究的作者認為,這可能是由於個人主義文化和集體主義文化之間的差異。前者強調每個人作為個體的獨特價值,「更傾向於保全更多數量的人。」與此相反,在保全年輕人方面更弱的偏好可能是集體主義文化的結果,「強調對社區中年長成員的尊重。」
作者認為,這些差異表明,「地理和文化上的接近可能會讓不同國家的人在機器倫理方面有一致的偏好。」
然而,還有其他因素與這些差異相關,不一定是地理上的。例如,不那麼富裕的國家,它的人均國內生產總值(GDP)較低,民間機構較弱,更可能撞守規矩過馬路的人而不是亂穿馬路的人,「大概是因為他們遵守規則的經驗較少,對不守規則的懲罰也較輕」。
不過,作者強調,Moral Machine的結果絕不是對不同國家的道德偏好的最終評估。
首先,這個測試是自選的,參與者都是相對懂技術的人。測試的結構也消除了細微的差異。參與者只有兩個明確的選擇:殺死這些人,或殺死那些人。在現實生活中,這些決定都是概率性的,每個人都會在不同嚴重程度的結果中做選擇。(「如果我令這輛卡車突然轉向,很有可能以低速撞到那個行人」,等等。)
儘管如此,專家們表示,這並不意味著這樣的測試無關緊要。Patrick Lin說,這些困境的人為性質是「特徵,而不是bug」,因為它們消除了「混亂的變數,以便集中於我們感興趣的特定變數」。
他補充說,即使汽車不會經常在撞到物體X或物體Y之間做出選擇,它們仍然需要權衡相關的決定,比如給這些東西留出多寬的空間。這仍然是「一個基本的道德問題,」Lin說,「所以我們現在需要討論這個問題。」
一台攝像機透過谷歌自動駕駛汽車的格柵窺視。Photo by Sean O』Kane / The Verge
將道德規範轉變法律
但在這些問題上,我們離需要立法還有多遠?公司什麼時候開始將道德決策編碼到自動駕駛汽車裡?
對第二個問題的回答是,現在已經有了。這是真的,因為每一個演算法都會做出某種決定,其中一些會產生倫理上的後果。但從更具體的角度來看,即使相關公司不願意公開談論這些演算法偏好,也很可能會編碼粗略的偏好。
例如,早在2014年,Google X的創始人 Sebastian Thrun就表示,公司的原型自動駕駛汽車將在發生碰撞時選擇撞擊兩個物體中的較小者。在2016耐能,谷歌的Chris Urmson表示,該公司的無人車將「盡量避免撞倒無保護的道路使用者:騎自行車的人和行人」。同年,據報道,梅賽德斯-賓士的一名經理表示,該公司的自動駕駛汽車將優先考慮撞車事故中乘客的生命安全,但該公司後來否認了這一說法。
公司不願意公開這些決策是可以理解的。一方面,自動駕駛系統還不夠複雜,無法區分年輕人和老年人。最先進的演算法和感測器可以區分明顯不同的東西,比如松鼠和騎自行車的人,但它們無法區分比這更細微的東西。此外,公司不管說他們優先考慮誰的生命——人或動物、乘客或行人——都是會讓某些人感到不安的決定。這就是為什麼說這些都是道德困境:沒有簡單的答案。
歐洲政策研究中心(Centre for European Policy Studies)高級研究員Andrea Renda表示,私營企業在這些問題上做的工作最多。「私營企業正在對此採取行動,但政府可能發現這還不夠,」Renda說。在歐洲,歐盟正在制定道德準則,並可能通過「命令和控制立法,或通過認證和聯合監管」來執行這些準則。在美國,國會已經公布了兩黨共同制定的潛在監管原則,但聯邦監管可能會緩慢進行,目前尚不清楚議員們是否想要深入車禍的道德偏好這一泥沼。
Renda 警告說,儘管公眾需要參與到這些辯論中來,但「僅僅依靠自下而上的協商將是極其危險的。」他說,各國政府和專家需要做出選擇,重申人權。
但在德國,我們已經看到了新的問題。德國是目前唯一一個對自動駕駛汽車的倫理選擇提出官方指導方針的國家。議員們試圖剖析電車問題的棘手之處,指出所有人的生命都應該被平等對待,任何基於個人特徵的區別,如年齡或性別,都應該被禁止。
但正如MIT的研究人員指出的那樣,如果這一選擇得以實施,將有悖於公眾傾向於拯救年輕人多於老年人的偏倚。他們會問,如果政府推出這項政策,它將如何應對這種集體反對,「當自動駕駛汽車在道德困境中選擇犧牲兒童的那一天,這種抵制將不可避免地發生。」
Awad說,這種衝突是「不可避免的」,但必須成為這個過程的一部分。「重要的是要讓這些決定變得透明,」他說,「要公開說明正在做什麼。如果這一切都發生在幕後,只對人們說』相信我們』,我認為這是不會被接受的。每個人都需要參與到這些決策中來。」
https://www.theverge.com/2018/10/24/18013392/self-driving-car-ethics-dilemma-mit-study-moral-machine-results
新智元AI WORLD 2018
世界人工智慧峰會全程回顧
新智元於9月20日在北京國家會議中心舉辦AI WORLD 2018世界人工智慧峰會,邀請機器學習教父、CMU教授 Tom Mitchell,邁克思·泰格馬克,周志華,陶大程,陳怡然等AI領袖一起關注機器智能與人類命運。
全程回顧新智元 AI World 2018 世界人工智慧峰會盛況:
愛奇藝
上午:https://www.iqiyi.com/v_19rr54cusk.html
下午:https://www.iqiyi.com/v_19rr54hels.html
新浪:http://video.sina.com.cn/l/p/1724373.html
※邊緣智能(EI):重構算力、重構演算法、重構商業智能
※NIPS數據告訴你中美AI差距有多大
TAG:新智元 |