自動駕駛汽車應該如何應對不可避免的碰撞?一項研究引起爭論
隨著人工智慧的持續快速發展,人們越來越擔心諸如自動車輛之類的機器將如何做出道德決策,尤其是那些危及人類生命的決策。為了闡明這個問題,麻省理工學院的研究人員進行了一次大規模的全球調查,希望能夠評估人們如何看待自主車輛在這種情況下的行為。
這項在線調查涉及來自233個國家和地區的200多萬人,重點調查了一個被稱為 「電車難題」的經典倫理思想實驗,在這個實驗中,自動駕駛汽車的無法避免事故且必須在兩種可能致命情景的選擇之一。例如,一輛無人駕駛的汽車可能面臨轉彎撞上一兩個行人或一大群行人的選擇。
麻省理工學院媒體實驗室研究報告的主要作者埃德蒙·阿瓦德(Edmond Awad)在一份聲明中說:「這項研究主要是試圖了解無人駕駛汽車採取的道德決策,我們還不知道他們應該怎麼做。」
在實驗中,研究人員開發了一種叫做「道德機器」的多語種網路遊戲,參與者必須在自主車輛可能面臨的一系列困境中陳述他們的優先結果。
總的來說,道德機器收集了將近4千萬個個體的決定,然後研究人員將它們作為一個整體,或者按照參與者的年齡、教育、性別、收入和政治或宗教觀點來分組進行分析。
這項發表在《自然》雜誌上的調查結果揭示了全世界人們似乎最認同的三個因素。首先,人類的生命應該不受動物的影響;許多人應該優先於少數人得救;年輕人應該比老年人先得救。
「主要偏好在某種程度上得到普遍認可,」阿瓦德說。「但他們對此與否的認同程度因不同的群體或國家而異。」這些區域差異以各種方式表現出來。例如,在東方國家中,包括亞洲許多國家,與南方國家相比,研究人員發現不太傾向於青年人而不是老年人。
研究人員說,承認人們的道德偏好可以告知控制自主車輛的軟體設計的方式。此外,鑒於公眾對研究的大量興趣,他們建議那些掌握技術創新的人應該在可能影響公共安全的時候尋求普通人的意見。
阿瓦德說:「我們在這個項目中試圖做的事情,以及我希望變得更加普遍的事情,就是讓公眾參與這類決策。」
澳大利亞新南威爾士大學人工智慧教授托比·沃爾什(Toby Walsh)沒有參與這項研究,他說這項研究的結果是「有趣」和「具有挑釁性」,但警告說,儘管結果顯示人們很多對這些自動系統應該如何運作的期望,這些期望不一定能指導他們的行為。
「我們給機器的價值不應該是一個或多個特定國家的模糊平均值,」他在一份聲明中說。「事實上,出於多種原因,我們應該讓機器達到比人類更高的道德標準:因為我們可以,因為這是人類信任它們的唯一方式,因為它們沒有我們人類的弱點,也因為它們會更多地感知世界準確地說,並且比人類更快地做出反應。「
來自新南威爾士大學伊恩·麥吉爾說,「這項研究提出了一個重要的問題,即我們應該在涉及自動駕駛汽車的生死攸關的情況下應該保護誰。」他未參與此項工作的研究,但他說「然而,即使有足夠的社會共識,我們希望這些車輛做什麼,在不可避免的答案的情況下,我們仍然面臨著挑戰,編碼這樣的"道德"到自主車輛。然後說服人們購買那些明確地將其他道路使用者的安全置於同等或甚至比他們自己更重要的地位的車輛。」
麥吉爾說:「這些公司競相將這些汽車推向市場,似乎沒有充分考慮到新技術部署所帶來的社會風險,這無濟於事。」「我們是否可以相信推動這一趨勢的公司,一些公司對自己的『贏家』採取一切商業道德提出重大問題,從而將社會認可的道德規範適當地規划到他們的產品中?」
來自紐西蘭奧塔哥大學的教授科林·加瓦漢(Colin Gavaghan)表示,這些類型的「電車難題」在哲學上很有吸引力,但直到現在他們很少關注法律。
「法律往往對那些本能地對突發事件作出本能反應的人很寬容。不過,在無人駕駛的汽車中,將道德編程的可能性提高到了另一個水平。「那麼,我們應該制定哪些道德規範呢?」那麼多數人的意見應該是多少呢?這項研究中表達的一些偏好,很難與我們基於性別或收入的歧視和偏愛平等的生活方式相適應。
「一個比較容易理解和適應的選擇是讓汽車儘可能多地挽救生命,」他繼續說。有時,這可能意味著要向伐木卡車前進,而不是轉向一群騎自行車的人。我們中的大多數人可能會認識到這是「正確的」做法,但是我們會為了許多人的利益而買一輛犧牲我們生命或者我們親人的生命的汽車嗎?」
※為什麼這麼熱?氣候專家稱「這是新常態」
※孩子的學業成績可能是遺傳的?並非只有天生聰明可以成功
TAG:大眼識珠 |