當前位置:
首頁 > 最新 > 我們該教機器人學習「道德」嗎?

我們該教機器人學習「道德」嗎?

原文:BBC新聞

作者:David Edmonds

江平 編譯

上午8點,這輛車按計划到達你的家中,帶你上班。 您爬上后座,將您的電子閱讀設備從您的公文包中拿出,以瀏覽新聞。 以前從未遇到麻煩,但今天發生了一些不尋常的事情:兩個孩子在草地上嬉戲地摔跤,滾到你面前的路上。沒有時間剎車,但是如果剎車,車子滑到左邊,就會碰到一輛迎面而來的摩托車。

結果不是很好,但哪一個最差?

還有一些你應該知道的,這一年是2027年,這輛車沒有司機。

我在乘客座位上,Amy Rimmer博士正坐在方向盤後面。Amy在屏幕上按下一個按鈕,而不用再觸摸任何控制,汽車就能順利地沿著道路行駛,停在交通燈上,在信號傳遞之前,向左轉,轉過一個迴旋處,通過。5分鐘的旅程後,它有點兒嗡嗡聲。

Amy,29歲,擁有劍橋大學博士學位,是捷豹路虎自主駕駛車的首席工程師。她負責汽車感測器看到的內容,以及汽車如何響應。她說:「無人駕駛汽車,將在十年內行駛在我們的道路上。許多技術問題仍然需要克服。但無人駕駛汽車的一個障礙,不是機械方面的,不是電子方面的,而是道德方面,這可能會延遲面世。

「手推車問題」

在汽車前面滾過的孩子所引發的困境是哲學中著名的(或臭名昭著的)「手推車問題」的演變。一列失控且剎車失靈的火車(或電車或手推車)正在一條軌道上衝下去,災難在前面,五個人被綁在軌道上。如果你什麼都不做,他們都會被殺死。但是你可以改變火車行駛方向,這樣可以拯救五個人。壞消息是,那邊有一個人,轉車就會殺了他。你該怎麼辦?

這個問題已經提問給世界各地的數百萬人,大多數人認為應該轉移火車。

但是現在又要改變這個問題。一架失控的火車撞向五人。這一次,你站在一條俯瞰著軌道的行人天橋上,旁邊是一個背著笨重的背包的男人。拯救這五個人的唯一辦法就是把背包人推到下邊:背包將阻擋火車的路。再次,這是一條生命與五條生命的選擇,但大多數人認為背包男人不應該被殺害。

這個難題已經存在了數十年,哲學家們意見並不統一。功利主義者認為,我們應該以最大限度的提高幸福,犧牲一個人,拯救5個人的生命。

無人駕駛汽車的道德困境

小車型困境是非常不切實際的。然而,在未來,無人駕駛汽車確實有必要做出選擇,哪種方式轉向誰,傷害誰,還是誰冒險呢?這些問題提出了更多。我們應該把什麼樣的道德準備到車裡?與其他車上的旁觀者或乘客相比,我們應該如何評價司機的價值觀?你會買一輛準備犧牲司機以挽救行人生命的汽車嗎?如果是這樣,你是不同的。

那麼誰來做這些道德決定就是棘手的事情。政府會決定汽車如何做出選擇?還是製造商?還是會是消費者?你能不能走進展廳,選擇汽車的道德,就像你的顏色一樣? 「我想購買一輛功利主義的保時捷。」

羅恩·阿金在2004年參加機器人倫理學會議時,對這些問題感興趣。他聽取了一位代表正在討論殺死人的最好的子彈:重而緩慢,還是小而快? 阿金覺得他不得不選擇「是否加強和承擔我們所創造的技術的責任」。從那時起,他致力於自主研發武器的道德準則。

有人呼籲禁止自主武器,但阿爾金則相反地認為:如果我們能夠製造武器,使平民喪生的可能性降低,我們就必須這樣做。他說:「我不支持戰爭,但是如果我們愚蠢地繼續殺死自己,我認為戰場上的無辜者需要得到更好的保護。」

像無人駕駛汽車一樣,自主武器不是科幻小說。已經有武器在沒有被人完全控制的情況下運行。如果遇到敵方的反擊,導彈可以改變路線。 阿爾金的做法有時被稱為「自上而下」。也就是說,他認為我們可以使用類似於「日內瓦公約」戰爭規則的機器人進行編程,例如禁止蓄意殺害平民。即使這是一個非常複雜的挑戰:機器人還是要區分敵方戰鬥員拼殺的刀以及外科醫生用來拯救傷病的刀。

編程可以教機器人「道德」嗎?

解決這些問題的另一種方法就是所謂的「機器學習」。

蘇珊·安德森是一位哲學家,安德森是計算機科學家。 除了是夫妻外,他們還是專業的合作者。他們認為,教授機器人倫理的最好辦法是首先按照「避免痛苦,促進幸福」的原則進行編程,然後讓機器從特定場景中學習如何將原則應用於新的情況。

採用陪伴型機器人旨在通過帶食物或書,或打開燈或電視機幫助病人和老人。 陪伴機器人行業預計在未來十年將蓬勃發展。像自主武器和無人駕駛汽車一樣,陪伴機器人將有選擇。假設一名護士面臨著拒絕服用藥物的病人,患者的自主權是我們要尊重的,但是,隨著時間的到來,我們需要尋求幫助,因為患者的生命可能處於危險之中。

通過應用初步原則處理一系列困境後,安德森認為,機器人將變得更加清晰,人類甚至可以從中學習。蘇珊說:「我覺得這會比一個典型的人更符合道德準則。」

但是機器學習會拋出自己的問題,一個是機器可能會學習錯誤的課程。例如,學習語言模仿人類的機器已被證明可以導入各種偏差。男女姓名有不同的關聯,機器可能會相信約翰或弗雷德比喬安娜或菲奧娜更適合成為科學家。我們需要警惕這些偏見,並試圖解決他們。

另一個更根本的挑戰是,如果機器通過學習過程演變,我們可能無法預測未來的行為方式,甚至不了解它如何達成其決定。這是一個令人不安的可能性,特別是如果機器人正在對我們的生活做出關鍵的選擇。部分解決方案堅持認為,如果事情出錯,我們有辦法審核代碼,仔細檢查發生了什麼。如果機器人對自己的行為負有責任,那麼,在道德上和法律上對機器人的不良行為進行制裁,就必須做出謹慎判斷。

該教機器人學「道德」嗎?

機器人的一大優點是它們的行為一致。在類似的情況下,它們將以相同的方式運行。自主武器不會因為生氣而作出不好的選擇。自動駕駛不會喝醉,不會累,也不會在后座的孩子們大喊大叫。在世界各地,每年有超過一百萬人在車禍中喪生,其中大多數人為失誤。減少這些數字是一個巨大的獎勵。

不過我們應該認為一致性是一個有趣的問題。倫敦國王學院John Tasioulas教授認為,混亂的人際關係之間是有價值的。「我們是否真的想要一個判刑制度,產生統一的答案,以應對經常涉及的價值觀的激烈衝突呢?當我們消除人類決策者的個人誠信和責任時,真正意義上的東西就會喪失。」他認為。

Amy Rimmer對無人駕駛汽車的前景感到興奮。這不僅僅是挽救了生命。無人駕駛汽車將減少擁擠和排放,並將成為「你能買到的為數不多的能給你節約時間的東西之一」。在我們的手推車難題中會做什麼?碰撞兩個孩子,還是面對一輛疾馳而來的摩托車?捷豹路虎還沒有考慮過這樣的問題,但Amy並不認為這很重要:「我不必回答這個問題就能通過駕駛考試,我也可以駕駛,那麼,為什麼我們要規定汽車必須在不可能的情況下對這些不太可能的情況給出答案呢?

這是一個很好的問題。如果無人駕駛汽車能夠拯救生命,為什麼要逼它先去解決非常罕見的情況?最終,我們還是希望我們的機器可以按照道德規範進行編程,因為不管你喜歡與否,在將來,越來越多的人類採用的決策將被委託給機器人。

當然有理由擔心。我們可能不完全明白為什麼機器人作出了特定的決定。我們需要確保機器人不會吸收並誇大我們的偏見。但也有一個潛在的好處,與我們相比,機器人可能會做出更好的道德決定,甚至可能使我們成為更好的人。

(來源:決勝網)

—完—

想知道AI加教育領域有哪些最新研究成果?請在智能觀(zhinengguanym)對話界面回復「論文」;

想要AI領域更多的乾貨?請在對話界面回復「乾貨」;

有人問:你們為什麼要做智能觀?為什麼關注AI+教育?

我想,這不是一個選擇。

當AI開始顛覆各行各業時,我們首先想到了教育。未來是我們正在為之努力的地方,教育可以影響當下,改變未來。

我們用心觀察和記錄教育在這個時代的蛻變;努力把前沿的動態、最新的進展、先進的觀點帶到你面前,希望與你一起思考和探索。我們相信,長出AI翅膀的教育,會創造出無限可能。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 智能觀 的精彩文章:

卡內基梅隆教授:什麼是社交人工智慧?它有危害嗎?
老師應多利用數字技術教學,還是應減少使用?
吳恩達:為什麼我要開設深度學習課程?
歐洲工商管理學院教授:大數據是如何加強教育的?
6種技術方法有助於解決學生的低識字率問題

TAG:智能觀 |