對「機器人殺手」說不!各國AI專家聯合抵制韓智能武器研發
據英國《衛報》報道,日前來自20多個國家的50多位頂尖AI(人工智慧)學者對韓國科學技術院(KAIST)和軍火公司韓華系統(Hanwha Systems)合作建立的「國防和人工智慧技術融合研究中心」發出聯名公開信,要求其停止研發自主武器(「機器人殺手」)項目,並將抵制一切與韓國科學技術院的合作和交流。
該公開信組織者、澳大利亞新南威爾士大學計算機科學教授沃爾什(Toby Walsh)在接受採訪時說:「利用AI技術可以從事很多拯救生命之類偉大的事業,甚至包括在軍事領域內。但該機構公然宣稱其目標是為了研發自主武器,和這樣的(軍火)公司合作引起了我們的極大擔憂。韓國科學技術院是一個受尊敬的大學,但在這個合作項目中它的合作夥伴的倫理標準備受質疑,經常違反國際規範。」
下周,聯合國將在日內瓦舉行關於自主武器的會議, 20多個國家已經呼籲全面禁止「機器人殺手」。部分地區軍隊對AI技術的使用,引起了人們對類似科幻電影《終結者》描述情形的恐懼。人們對這種武器的準確性以及它們區分朋友和敵人的能力提出質疑。
韓華是韓國最大的武器製造商之一, 製造由120個國家簽署國際公約並禁止的集束彈藥。韓國、美國、俄羅斯和中國都不是這項國際公約的簽署國。韓國科學技術院與該財團合作,於今年2月開設「國防和人工智慧技術融合研究中心」。據該研究中心此前公開的文件,其致力於研發「以AI技術為基礎的命令和決策系統、巨型無人駕駛海底機器的導航演算法、基於AI技術的智能目標跟蹤技術和識別技術」。目前這些文件已被刪除。
韓國科技技術院的負責人Sung-Chul Shin表示對抵製表示遺憾。他在一份聲明中說:「我需要重申KAIST沒有任何意圖參與致命性自主武器系統(「機器人殺手」)的研發。作為一個學術機構,我們高度重視人權和倫理標準。我重申KAIST沒有進行任何有違人類尊嚴的研究,包括缺少有效人類控制的自主武器。」
至於其他國家自主武器的進展,沃爾什告訴記者,類似英國BAE系統開發的Taranis軍事無人機在技術上已經可以完全自主的完成任務。他認為「機器人殺手」會使所有人更不安全,尤其是在本來就很危險的地區。
可以說,自主武器或「機器人殺手」的研發問題是全球AI研究者和從業人員最關心的問題之一。在2015的年全球人工智慧組織國際大會(International Joint Conferences on Artificial Intelligence Organization)上,來自全球的3462名AI或機器人研究人員曾聯名發表公開信,表達了對世界範圍內研發自主武器的關切。
在2017年8月,以馬斯克為代表的來自全球的100名AI從業者表示,各國政府需要「通力合作,避免在自主武器領域開始軍備競賽,保護平民不受到傷害,避免這些科技帶來的毀滅性的後果。」在同一年,世界最大的專業技術組織---電氣電子工程師學會(IEEE)在其發表的關於自主與智能系統的倫理準則全球倡議書(The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems )中提道:「雖然在聯合國層面已經有多年關於自動化武器的討論,但(我們認為)人工智慧和自動化行業有關智能系統的專業倫理準則應該高於這些標準,並且需要考慮社會更廣泛的關切。總的來說,我們希望科技組織承認對武器系統進行有效的人類控制對社會是有好處的。創造這些科技的(企業或組織)需要認識它們工作的重大後果,專業倫理標準需要解決這些意在造成傷害的科技的問題。」
以下為此次全球AI專家對韓國科學技術院(KAIST)聯名發表的公開信全文:
作為人工智慧和機器人技術的研究人員和工程師, 我們對韓國科學技術院(Korea Advanced Institute of Science and Technology)與韓國軍火公司韓華系統(Hanwha Systems)合作建立的「國防與人工智慧融合研究中心」(Research Center for the Convergence of National Defense and Artificial Intelligence)表示極大的擔憂。據報道, 該中心的目標是「開發可用于軍事武器的人工智慧技術, 加入全球研發自主武器(autonomous weapon)的軍備競賽」。
在聯合國正在討論如何遏制自主武器對國際安全構成的威脅時, 我們非常遺憾的看到, 像韓國科學技術院這樣的著名機構似乎在加速軍備競賽, 以發展這種武器。因此, 我們在這裡公開宣布, 我們將抵制與韓國科學技術院相關的所有合作, 直到韓國科學技術院負責人向我們保證該中心將不發展完全自主不需要有效人類控制的「機器人殺手」。例如, 我們將不再訪問韓國科學技術院, 接待韓國科學技術院的學者, 或參與任何涉及韓國科學技術院的研究項目。
一旦發展出自主武器,我們將面臨戰爭的第三次革命。自主武器(「機器人殺手」)將讓戰爭的規模比以前更大,速度更快。它們很有可能成為恐怖武器。專制統治者和恐怖分子可以利用它們傷害無辜平民,不顧任何倫理束縛。這個「潘多拉的盒子」一旦被打開將很難關閉。正如過去我們曾經禁止的技術(如致盲激光)一樣,我們可以直接決定不再開發。我們敦促韓國科學技術院繼續沿著這條道路前進,用人工智慧技術來改善人類生活,而不是傷害人類生命。
新聞報料
商務合作
※【深度】Facebook冤不冤?精準投放政治廣告的邊界之辯
※總統都姓吳?緬甸人起名玄機多
TAG:界面新聞 |