當前位置:
首頁 > 最新 > 決不允許殺人機器人出現!馬斯克領銜,超過2000名科學家聯名簽署《致命性自主武器宣言》

決不允許殺人機器人出現!馬斯克領銜,超過2000名科學家聯名簽署《致命性自主武器宣言》

攜帶機槍的殺人機器人THeMIS

今天,在瑞典斯德哥爾摩舉辦的2018國際人工智慧聯合會議上,包括SpaceX及特斯拉CEO埃隆·馬斯克(Elon Musk)、谷歌DeepMind三位創始人在內的超過2000名AI學者共同簽署《致命性自主武器宣言》(lethal autonomous weapons pledge),宣誓不參與致命性自主武器系統(LAWS)的開發、研製工作。這也是學界針對「殺人機器人」最大規模的一次集體發聲。

來源 |Future of Life Institute、the verge等

編譯 | 吳非

軍方加速研發Vs學界反對

在AI的眾多應用場景中,軍事領域顯然最具爭議。在聯合國於2013年發表的一份報告中,南非比勒陀利亞大學的法學教授Christof Heyns就指出,LAWS已經在一些國家(如美國、英國、以色列、韓國等)的軍方實驗室誕生。這時人們意識到,上個世紀科幻小說、電影中的殺人機器人,已經走入現實世界。

致命性自主武器系統,是能夠在沒有人的情況下,自主完成尋找目標、定位、擊殺敵人這一整套工作的AI系統。只要將其派上戰場,它們將自主辨別敵人並完成殺戮。也就是說,他人生死的決定權,全權交付給了機器人。這不禁引發眾人的擔心:如果LAWS發生故障失控,或是受到某些人的惡意操縱,可能會導致無法控制的災難性後果。

感到擔憂的不僅是普通民眾,一些AI、科學界領袖也站在反對研發LAWS的隊列中。2015年,斯蒂芬·霍金、埃隆·馬斯克等千餘名AI學者及科學家就向聯合國提交聯名公開信,警示LAWS軍備競賽的風險,並倡議頒布相關禁令。

在多方呼籲下,各國政府也開始嚴肅討論LAWS的威脅。2016年12月,在聯合國的《常規武器公約》審議大會上,LAWS首次被納入討論範圍。而在今年4月舉行的最近一次會議上,包括中國在內的26國發表聯合聲明,支持對LAWS頒布禁令。這一禁令已有先例:此前,出於人道、倫理原因及潛在的危害性,聯合國已經對生物武器、化學武器及太空武器頒布禁令。不過,正式的LAWS國際公約誕生仍需時日。

在LAWS的國際公約尚未成型的情況下,多個國家仍在加速LAWS的研發。今年4月,LAWS就再次陷入輿論漩渦。超過50位頂尖人工智慧學者就聯名抵制韓國科學技術院(KAIST),起因是後者於今年年初與韓國國防公司Hanwha Systems合作建立國防和人工智慧融合研究中心,外界擔憂KAIST可能會開發殺人機器人;與此同時,谷歌因參與美國國防部的MAVEN軍事計劃,遭到3000多名員工的聯名抗議。

在這種情況下,2000多名AI學者在今天表明了自己的態度:LAWS的研發及使用應當被嚴格禁止!

美國海軍的機器人在訓練中

2000位學者共同發聲

這份宣言由生命未來研究所(Future of Life Institute)牽頭,這家位於波士頓的研究機構旨在降低人類的存在風險(existential risk)。共有來自90個國家的2400多名AI學者簽署了這份宣言,他們分屬160多家AI企業或機構。

其中最具代表性的人物當屬Elon Musk。Musk始終是LAWS堅定的反對者。此前他也一再強調,AI是人類最大的「存在威脅」,我們必須在AI真正威脅到人類之前,就建立前瞻性的規範。

宣言簽署者還包括谷歌DeepMind的共同創始人Shane Legg、Mustafa Suleyman、Demis Hassabis;Skype創始人Jaan Tallinn;全球頂尖AI學者Stuart Russell、Yoshua Bengio、Jürgen Schmidhuber等。

宣言指出,LAWS會「在不受人類干涉的情況下,選擇目標並實施攻擊」,這會帶來道德及實際層面的雙重威脅:一方面,人類生命的決定權「決不能交給機器」;此外,此類武器的擴散將「對於所有國家、個人造成極大的威脅」。

麻省理工大學的著名物理學家Max Tegmark是生命未來研究所的主席,他也是此次宣言的發起者。Tegmark說道:「我很樂於看到,AI領袖開始從言語轉向實際行動。AI擁有巨大的潛能,它能讓世界變得更好,但我們必須要注意避免被濫用。自主決定人類生與死的武器和生物武器一樣令人厭惡且極具破壞性,因此兩者理應受到同等對待。」

發起對KAIST抵制的新南威爾士大學教授Toby Walsh也參與了這份宣言的簽訂。「如果有人鐵心要研發自主武器,我們根本無法阻攔,正如一些秘密研製化學武器的研究者,」Walsh說,「沒有人希望恐怖分子能輕易得到這些武器,因此我們必須確保軍火商不會公開售賣它們。」

今年8月,LAWS將再次成為聯合國各國討論的議題。宣言簽署者希望,他們的行動能促進立法者頒布正式的國際協議。

而在此之前,參與者相信他們的努力也並非一無所獲。在前面的案例中,谷歌在受到員工的聯名抗議後數周發布新的研究指導方針,承諾不參與AI武器的研發;KAIST的院長也在事後做出類似的承諾。

宣言全文翻譯如下:

人工智慧隨時準備著在軍事領域扮演更重要的角色。因此,怎樣界定可接受的AI使用範圍,成為普通民眾、決策者和領袖所面臨的緊迫任務。

我們認同的是,人類個體生死的決定權,決不能交給機器。這一方面是出於道德層面的考慮,「掌控他人生死」這件讓人產生負罪感的事,絕不能由沒有感情的機器做出。

另一方面,是強有力的實際因素:不受人類干涉、自主選擇攻擊目標的致命性自主武器,對於所有國家、個人而言都是極大的威脅。數千名AI學者一致認為,LAWS使得剝奪他人生命這一過程中的風險、可歸責性與難度不復存在,它們將成為暴力活動中的強大工具,尤其當其與監控、數據系統相結合時。

此外,致命性自主武器的特徵不同於核武器、化學武器及生物武器,研發團隊可以單方開啟軍備競賽,而國際社會缺乏實行管制的技術手段。譴責並避免這場軍備競賽,是維護全球安全的優先考慮事項。

我們呼籲各國政府及首腦為了地球的未來,共同商議抵制LAWS的國際規範、法律。我們這些未參與LAWS的人,需要以更高標準要求自己:我們絕不參與或支持LAWS的發展、生產、貿易與使用。我們呼籲科技企業、組織及其領袖、決策者與其他民眾,共同履行該承諾。

參考鏈接:

https://futureoflife.org/2018/07/18/ai-companies-researchers-engineers-scientists-entrepreneurs-and-others-sign-pledge-promising-not-to-develop-lethal-autonomous-weapons/

https://futureoflife.org/lethal-autonomous-weapons-pledge/

https://www.theguardian.com/science/2018/jul/18/thousands-of-scientists-pledge-not-to-help-build-killer-ai-robots

https://www.theverge.com/2018/7/18/17582570/ai-weapons-pledge-elon-musk-deepmind-founders-future-of-life-institute

https://www.theguardian.com/technology/2017/jul/17/elon-musk-regulation-ai-combat-existential-threat-tesla-spacex-ceo

《環球科學》7月刊現已正式上市


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 環球科學 的精彩文章:

水不是一種液體,而是兩種!這種奇異特性,或是生命存在的關鍵
這個世界,沒有B計劃

TAG:環球科學 |