當前位置:
首頁 > 科技 > 不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

圓栗子 發自 凹非寺

量子位 出品 | 公眾號 QbitAI

上個星期,馬斯克(Elon Musk) 剛剛帶領一眾AI專家,簽訂了一份承諾書。

內容是,永不開發自主殺人武器(Lethal Autonomous Weapon Systems)。

理由有二。一,不該把生殺大權交給機器。二,致命AI武器的存在,會讓國家和個人承受危險的動蕩。

意圖自然是好的,但牛津大學的學者Mariarosaria Taddeo (簡稱瑪利亞) 說,他們忽略了一個重點

而且,把萬眾目光集中在「AI殺手」上,人們就更難注意到那個重點了。

表面「靜止」

智能機器人統治世界,支配人類,這樣的極端場景,的確非常吸引眼球。

但那並不是AI技術唯一的隱患。

美軍曾經把AI分成兩種:一是移動的 (AI in Motion) ,二是靜止的 (AI in Rest) 。

前者表示依託於實體機器人的AI,後者表示僅僅存在於軟體系統的AI。

美國海軍有自動駕駛的軍艦,以色列有自主識別、打自主擊目標的無人機,這些軍用設備里的AI,是移動型。

但戰爭並非只有硬碰硬,比如,網路世界 (Cyber Space) 就從不和平。

瑪利亞覺得,後者才更需要重視,「靜止」也不代表不危險

暗潮洶湧

網路世界裡,大大小小的國際爭端,可能每天都在發生。

今年3月,美國譴責了俄羅斯,說對方几個月來,一直攻擊美國關鍵的基礎設施

這樣的話,事情就不像WannaCry搶比特幣那樣簡單。

如果,有人能利用AI,造成全國範圍的停電,或者供暖系統癱瘓,就可能導致非常嚴重的後果。

停電不是小事

雖然,還沒有發現AI直接造成物理傷害的事件,但不代表以後也不會有。畢竟,AI正在飛速普及。

瑪利亞說,社會的運轉越依賴AI,系統之間的衝突越可能帶來物理傷害。

AI與AI之間,有了自主打擊、自主防禦行為,就算沒有實體機器人,局面還是可能失控。

一線之隔

現在,許多國家都在建立自己的AI網路防線。

瑪利亞說,「網路軍備競賽(Cyber Arms Race) 」可能就要開始了。

可是,防禦與攻擊,僅一線之隔

現在,國際上依然沒有法規,能夠規範網路防禦 (Cyberdefence) 行為。

早在2004年,聯合國就成立了信息安全政府專家組(Group of Governmental Experts on Information Security) ,目的便是達成共識,用統一的法條來規範各國在網路空間里的行為。

然而,會開了很多次,共識到今天都沒有達成。

今年4月,瑪利亞的一篇文章在Nature上發表。她寫道,網路防禦要三步走——

第一步,劃定法律界限。

第二步,在友好邦國之間,測試防禦策略。

第三步,建立監管機制,強化法規執行。

她給每一步,都描繪了一些合理的設想。

不過,還不知道這個世界,哪天能走出第一步。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 量子位 的精彩文章:

英偉達老黃又來送大禮,全新Titan V CEO限量版GPU火力全開
靠App秒識貨架8976種商品,這家AI零售方案商一年3獲投資

TAG:量子位 |