「圍剿」殺人機器人,全球AI界大牛齊出手!
機器人可以用來幹家務,也可以用於暴力目的。如何劃定機器人的用途界限?針對這個問題,人工智慧(AI)領域產生了很大分歧。
韓國科學技術院(KAIST)是一所知名學府,擁有首屈一指的科學實驗室。從液態電池到疾病感測器,他們開發了各式各樣的東西。如今,KAIST和韓華集團簽署協議,為後者研發人工智慧武器。韓華集團曾無視聯合國禁令,開發「集束彈藥」這種毀滅性武器。如果加上人工智慧,武器恐怕會更加致命。
▌殺人機器人項目
這是去年 11 月伯克利大學教授 Stuart Russell 在聯合國特定常規武器公約會議上放出的一段虛擬視頻。儘管這段視頻和其中的殺人機器人並不真實,但其中的科技目前已經存在。試想如果這種技術落入到恐怖分子手裡,後果將難以設想。
機器人的發展如果趨向惡的一面,那就像是潘多拉魔盒,異常兇險。
3 月,Google 利用 AI 技術幫助美國國防部分析其無人機拍攝的視頻片段,就遭到了近期 3000名員工聯名反對,這些人認為 AI 技術已經被用成了不正當殺人利器。
人工智慧在世界各地的軍隊中的使用引發了人們的擔憂,並對這種武器的準確性以及區分朋友和敵人的能力提出了質疑。
近日,超過 50 位人工智慧領域的專家聯名抵制韓國科學技術高級研究院 KAIST 開發「殺人機器人」。這是繼去年 8 月,業界的 116 位機器人和 AI 公司創始人和首席執行官們公開敦促聯合國採取行動,阻止「機器人殺手」出現的後繼浪潮。
他們的訴求一致,就是為了防止 AI 可能引發槍彈和核武器發明之後在戰爭領域的第三次革命,以及避免各國加速開發自動化武器進行軍備競賽。可以說,這是學界和業界對殺人機器人的聯合「圍剿」。
很多與政府國防相關的 AI 技術應用,都會觸動業內從業者敏感的神經。
KAIST 與國防公司韓華系統(Hanwha Systems)在自主武器上的合作也是如此,雖然目前的消息還未得知它們具體的一些項目細則,但如果你了解韓華系統的一些基本情況,也就會明白這次合作的個中利害。
作為韓國最大的武器製造商之一,韓華系統製造的集束彈藥(cluster munitions)在國際條約下已被禁止在 120 個國家使用;而且韓國與美國、俄羅斯和中國一樣,都不是該公約的簽署國。十年前,挪威的未來基金將韓華列入了道德黑名單中。
其次,韓國科學技術院相當於韓國的麻省理工學院,綜合它們在各自領域強大的影響力和技術實力,兩者結合很難不引起人們的警惕。
2 月 20 日,KAIST 開放了國防和人工智慧聯合研究中心,校長 Sung-Chul Shin 當時表示「將為發展國防技術奠定堅實的基礎」。
▌「愚蠢的 AI」
Toby Walsh 正是此次呼籲抵制韓國殺人機器人的組織者。
在《衛報》發出報道一天之後,今天他就署名發表了一篇名為《現在從殺人機器人手中拯救世界還不算太晚》的文章。
他稱自己所說的殺人機器人不是電影《終結者2:審判日》中的 T101 型機器人。「與之相比,我最擔心的是愚蠢的 AI。」
他認為不受人類控制,自動化武器將成為大規模殺傷性武器。但我們現在還來得及阻止戰爭領域的第三次革命發生。「如何做到這一點並不涉及時間旅行,或者任何火箭科學。我要說的是,用人類發明的機器去決定人類的生死這在道德上是不可接受的。」
現在,我們在阿富汗或伊拉克的天空之上看到的無人機,還只是半自動化武器,但從技術上來說,用計算機取代操作的士兵現在可以輕而易舉做到。到那時,當有人遭受自動化武器的攻擊時,我們甚至很難找出幕後真兇,這會讓作惡者更加猖狂。
完全自動化無人機技術幾乎與自動駕駛汽車使用的是相同技術。比如識別、追蹤和避開行人的演算法可以很容易地變為識別、跟蹤和定位戰鬥人員的演算法。
那麼如何防止這個世界在未來充滿殺人機器人?
Walsh 認為,與核武器不同,自動化武器將變得廉價並且是一種非常有效的武器,這聽起來似乎將難以禁止。但有一個很好的歷史先例表明禁止是可行的。
他以化學武器為例,雖然它也像自動化武器一樣便宜,背後使用的技術廣泛存在,不可能完全禁止。但現在我們也並沒有禁止化學,而禁止的是化學武器,因為使用這些武器的人在道德上會被人類所唾棄,而這也是我們能夠防止未來會充滿殺人機器人的原因。
▌抵制聲潮
抵制殺人機器人的聲潮在擴大。
目前,已經有 20 多個國家開始要求全面禁止製造殺人機器人。而那些參與抵制的 50 多位頂尖 AI 學者也表示,他們不會參與此類項目的研究,不會與來自 KAIST 的訪問者進行合作。
值得一提的是,參與抵制的除了有 Yoshua Bengio、Geoffrey Hinton 這些 AI 領域的知名學者之外,南京大學人工智慧學院院長周志華教授也位列其中。
(參與抵制的部分學者名單)
儘管周志華教授此前並未發表與此相關的看法,但他曾在一篇《關於強人工智慧》的文章中指出,現在絕大多數 AI 研究者都認為強人工智慧不能做、不該做,即便強人工智慧是可能的,也不應該去研究它。這在一定程度上也能說明他對這種殺人機器人的態度。
人們對人工智慧的這種警惕感並不是近期才出現的,早在 2015 年 1 月,Stuart Russell 教授就發出了一封警告 AI 研究的公開信,響應者上千人,其中包括哲學家,來自 Google、Facebook 和微軟的 AI 研究者,特斯拉 CEO 馬斯克,以及已然逝去的物理學家霍金。
此次抵制事件,也像是在下周即將在日內瓦召開的聯合國會議上對「殺手機器人」議題討論的一次鋪墊。這或許標誌著,科學界將對 AI 武器進行更強有力的控制。
目前,聯合國正在商討如何控制自主武器對國際安全造成的威脅,而KAIST卻在加速這類武器的軍備競賽,這非常令人失望。因此,50多位全球頂尖AI專家決定抵制此舉——他們宣布將拒絕和KAIST任何部門進行合作,直到KAIST保證絕不開發缺乏人類控制的自主武器。
※第四屆MOSEC完美收官,乾貨議題都在這裡!
※WannaMine再升級 搖身一變成為軍火商
TAG:威客安全 |