當前位置:
首頁 > 最新 > 阿西莫夫的「機器人三定律」過時了嗎?

阿西莫夫的「機器人三定律」過時了嗎?

全球技術地圖

創新丨前沿丨科普丨資訊

1950年,科幻作家艾薩克·阿西莫夫首次提出了著名的「機器人三定律」。70多年後的今天,人工智慧已經悄無聲息地滲透到了我們生活中的方方面面,在這種情況下,當時顯得十分超前的三條定律是否仍然適用呢?

「機器人三定律」首次出現在阿西莫夫的短篇集《我,機器人》中,其具體內容如下:

機器人不能傷害人類,也不能任憑人類面臨危險而袖手旁觀。

機器人應服從人的一切命令,但不得違反第一定律。

機器人應保護自身的安全,但不得違反第一、第二定律。

近一個世紀以來,阿西莫夫的「三定律」似乎為人類監管機器人提供了一個絕佳的方案——美國影星威爾·史密斯甚至出演了一部同名電影。但是部分專家認為,這些定律已經完全不適用於當代的人工智慧。

在阿西莫夫的時代,沒有人能預料到谷歌以及Facebook的出現。在當時人們心目中,機器人應當是一派全副武裝、殺氣騰騰的模樣,誰又能想到如今的「機器人」卻紛紛改頭換面,以廣告推送與搜索引擎演算法的形式陪伴在人類身邊呢?

目前來看,以往科幻小說中機器人的角色已經被AI所取代,我們已經無需擔心電影中機器人大舉起義,反抗人類的情節成為現實——至少在所謂的「奇點」來臨之前如此。

繼人工智慧是否存在「自我意識」的討論之後,AI的監管問題順理成章地成為了輿論的下一個風口浪尖。各國政府紛紛開始集結行業頂尖的專家學者,共同商討未來的AI安全形勢。

那麼,現實世界中人類應該給AI套上怎樣的「枷鎖」呢?Cambridge Consultants公司近日發布了一篇名為《認識人工智慧 展望發展前景》的報告,為AI的監管與治理提出了五個關鍵詞

1

責任:任何自治系統都需要特定的人員出任負責人。這位負責人不僅對該系統承擔法律責任,同時也將監督系統運行,及時提供反饋,並且在必要時對系統做出調整。

2

知情:任何與AI系統產生關聯的人員(通常是非專業人士)都有權知曉一系列AI行為的來龍去脈。

3

準確:有關人員應當對任何系統錯誤的源頭進行確認,隨時監控錯誤動向,評估其影響,並且儘快消除錯誤,或者盡量減少錯誤的危害。

4

透明:任何自治系統的產出結果應當接受一系列測試、審查(公開或私下進行)以及批評質疑。有關人員應將審查與評估結果公諸於眾,並且做出合理的解釋。

5

公正:相關機構及個人應合理利用數據,尊重他人隱私,以防止AI系統被植入「偏見」,以及其它潛在問題。

你也許注意到,上述原則中並沒有提及如何防止AI對人類造成「物理上的」損害,這很可能是因為目前的AI系統還無法獨立做出「傷害人類」這樣的決定。

目前,所有AI應用在設計之初都只能用於解決特定的問題。蘋果手機的面部識別(Face ID)演算法顯然不會對機主的性命造成威脅,但是不道德的程序員很可能對智能手機的攝像頭演算法做些手腳,從而竊取用戶的隱私。因此,「趨利避害,降低風險」成為了目前AI監管領域中的主流聲音,AI系統的安全性能是一切的重中之重。

谷歌公司就曾經為具有學習能力的機器系統提出了一系列安全準則:

當AI系統被廣泛運用到各行業之後,我們將面臨以下五個問題——這些問題都是具有前瞻性的、長期的研究問題。它們看起來只是幾樁小事,但是對未來的AI系統具有至關重要的作用:

避免「副作用」

我們該如何保證AI系統不會在完成目標的過程中干擾周遭的環境呢?例如,一個保潔機器人或許會故意將家中的花瓶打碎——比起將花瓶擦拭乾凈,這樣進行「清理」似乎更加便捷。

避免AI「投機取巧」

同樣以保潔機器人為例,如果我們將機器人的任務目標設定為「周圍沒有任何雜物」,結果機器人並沒有進行清潔,反而是用布或者紙張將雜物蓋住,這樣一來它「看不見」雜物也就完成了任務——我們該如何避免這種投機取巧的情況發生呢?

發揮AI的「理解力」

AI系統在執行任務前往往需要得到人類的首肯。例如,保潔機器人會將無人認領的東西丟進垃圾箱,假如它每撿到一件東西就要向周圍人詢問一遍就太過於煩人了,我們該如何讓機器人脫離人類的幫助,迅速「領悟」其中的關鍵呢?

安全進行探索

掌握學習能力的AI系統往往會自行嘗試探索。保潔機器人嘗試新的拖地路線固然是一件好事,可是它絕不能拿著濕拖把經過電器插座——我們如何保證AI系統在進行探索活動時不會闖下大禍呢?

適應不同環境

研究人員對AI進行訓練的環境往往與AI的實際工作環境不盡相同。保潔機器人在工廠車間中學到的清潔方法也許不太適用於辦公室環境中。我們該如何讓AI識別不同的環境,並且做出相應的調整呢?

AI的未來並不是一個「高大上」的話題。不僅是谷歌與Cambridge Consultants這樣的大型公司,我們每個人都與之息息相關——我們身邊的每一部手機、每一台電腦中幾乎都有著機器學習及AI系統的身影,某些AI系統甚至掌握了編寫演算法程序的能力。在這種情況下,不道德的代碼一旦問世,便能夠以飛快的速度進行傳播,進而造成極其惡劣的影響。

AI領域中的監管及道德問題顯然與電影中「殺手機器人」肆虐的場景並無太大幹系(那些專門為戰鬥而生的自主武器除外)。相反,政府更應當關注AI對普羅大眾的潛在威脅。

當然,每個人、每台機器都應該將「不殺人」的原則奉為圭臬,無論他們是否具有「智能」。

編譯丨王燕處

選自丨Artificial Intelligence

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 全球技術地圖 的精彩文章:

特朗普政府公布1.5萬億美元基建投資計劃

TAG:全球技術地圖 |