當前位置:
首頁 > 新聞 > 特朗普欲將AI用于軍事關鍵任務,蘭德警告2040年前或導致核戰爭

特朗普欲將AI用于軍事關鍵任務,蘭德警告2040年前或導致核戰爭

特朗普欲將AI用于軍事關鍵任務,蘭德警告2040年前或導致核戰爭



新智元編譯

來源:gizmodo.com

【新智元導讀】美國國防部副部長透露,特朗普政府對利用人工智慧幫助軍方更高效、成本更低地執行一些關鍵任務非常感興趣,五角大樓已經準備在未來6個月內建成一個整合多個AI項目的新中心。於此同時,美蘭德公司發布報告,警告說AI在軍事任務中的應用可能增加核戰爭的風險。

特朗普欲將AI用于軍事關鍵任務,蘭德警告2040年前或導致核戰爭

據美國非盈利新聞調查組織CPI的報道,美國國防部的第二把手上周二透露,特朗普政府對利用人工智慧幫助軍方更高效、成本更低地執行一些關鍵任務非常感興趣。

美國國防部副部長、前波音公司高管Patrick Shanahan表示,人工智慧(使用計算機系統執行通常需要人類智能的任務)可以幫助國防部更好地利用其收集的大量情報數據。

他還表示,AI可以用於加強軍事後勤能力,在正確的時間為士兵和維修人員提供適當的零件和裝備。AI也可以促進更明智的決策,為軍方人員提供醫療服務,從而節省成本。

Patrick Shanahan以及其他高級國防官員說,五角大樓已經準備在未來6個月內建成一個「卓越中心」(Center for Excellence),將多個現有的與AI應用相關的軍事計劃整合在一起,為這項工作帶來更多連貫性和動力。

在Shanahan向防務作家團體(Defense Writers Group)發表上述講話的同一天,蘭德公司(Rand Corporation)發布了一分公開報告,警告說AI在軍事任務中的應用可能導致令人擔憂的負面影響,包括:AI可能通過巧妙地破壞核威懾的一個關鍵根基,從而增加核戰爭的風險。蘭德公司是美國的一個智庫,主要為美國軍方提供調研和情報分析服務。


蘭德報告:人工智慧可能在2040年前增加核戰爭的風險

這份新報告題為《人工智慧可能如何影響核戰爭的風險》(How might Artificial Intelligence Affect the Risk of Nuclear War),報告指出,AI具有破壞核安全基礎的「巨大潛力」。這個嚴峻的結論是蘭德組織的一系列研討會得出的,參與該研討會的人員包括AI、核安全、政府和軍方的專家。這是蘭德公司Security 2040項目的一部分,旨在評估AI以及其他現金計算在未來20年里對核安全的影響。針對這一報告的結論,蘭德正在呼籲國際社會就此進行對話。

特朗普欲將AI用于軍事關鍵任務,蘭德警告2040年前或導致核戰爭

這一討論的核心是核威懾的概念,即保證「相互保證毀滅」(MAD)或「保證報復」(assured retaliation),防止一方對有同等武裝的對手發射其核武器。這是一種冷酷、計算式的邏輯,至少在我們經歷過的歷史階段,它至少阻止了一場全面的核戰爭,讓理性的、自我保護的大國選擇了對抗冷戰。只要沒有一個核力量維持有重大的先發制人的能力,MAD的概念就仍佔據主導地位;如果一個武器系統能夠在第一次攻擊中倖存下來,並以同等的力量回擊,那麼「保證報復」就仍然有效。但是如果一方失去了反擊的能力,或者即使它開始認為它有失去這種能力的風險,這樣的體系就可能削弱並變得不穩定。

這個方程式鼓勵國家行為者避免採取可能破壞當前地緣政治平衡的行為,但是,正如我們在過去幾十年里一再看到的那樣,核大國仍欲圖「先發制人」。例如,隱形轟炸機、核潛艇的發展,以及最近俄羅斯總統弗拉基米爾·普京(Vladimir Putin)展示的「無敵」彈道導彈。

值得慶幸的是,這些發展都沒有真正地結束超級大國在第一次打擊後的反擊能力,但正如蘭德的新報告指出的那樣,先進的人工智慧技術與無人機、衛星以及其他強大的感測器等監視技術相結合,可以削弱這種促使微妙的冷戰平衡得以保持的技術平衡。該報告稱,人工智慧將通過對敵方安全基礎設施實行大規模監控,發現人眼看不到的模式,揭示其破壞性的漏洞,從而實現這一目的。

報告作者之一,蘭德公司的一名工程師Andrew Lohn說:「這可不僅是電影里的場景,如果我們不加以小心,很簡單的事情就可能引發緊張局勢,將我們帶到危險的局面。」

一個暴露著的敵人突然意識到它很容易遭受「先發制人」,或者意識到它可能很快就會失去反擊的能力,將陷入一個非常不利的位置。這種情況可能會迫使處境不利的國家尋找能夠恢復平衡的方法,它的行動可能會變得像被逼到角落裡的金剛狼一般。先進的人工智慧可能導致一個充滿不信任、競爭的新時代,孤注一擲的核大國會願意承擔災難性的、甚至毀滅性的風險。

令人不安的是,即將失去「保證毀滅」可能會導致所謂的預防性戰爭,即一場以阻止敵方獲取攻擊能力為目的的戰爭。例如,在第一次世界大戰前的幾年中,德國嚴重擔憂作為其競爭對手的俄羅斯開始成為重要的地區強國。德國專家預測,俄羅斯將能夠在20年內在武裝衝突中擊敗德國,這引發了一場預防性戰爭。而在二戰結束後不久,美國的一些思想家,包括哲學家伯特蘭·羅素和數學家約翰·馮諾伊曼,呼籲在蘇聯發展自己的核彈之前,對蘇聯實施先發制人的核打擊。

正如這些例子所顯示的那樣,事態的發展如果要破壞軍事優勢或平衡狀態(即MAD),這一時期可能是非常危險的,會引發各種瘋狂的想法。正如蘭德公司的報告指出的那樣,我們可能正在進入另一個這樣的轉型期。作者在報告中寫道,人工智慧「有可能在2040年前加劇核戰略穩定面臨的挑戰,即使技術進步的速度不大」。

蘭德公司的助理政策研究員,該報告的合作作者Edward Geist說,自主系統不需要通過殺人來破壞穩定性,更有可能的是造成災難性的戰爭。他在一份聲明中說:「新的人工智慧能力可能會讓人們認為,如果他們猶豫不決的話,他們就會失敗。」這可能會導致他們扣扳機的手指更加躍躍試試。到那時,儘管人類仍處於「控制」狀態,AI將使戰爭更有可能發生。

最後,作者警告說,未來可能會出現嚴峻的形勢,但作者也同意AI也可能迎來前所未有的穩定時代。 他們寫道:

一些專家擔心,對AI的日益依賴可能導致新的災難性錯誤。在技術成熟之前,使用AI可能會有壓力;它可能易受對抗性的破壞;或者敵方可能認為AI比它實際上的能力更強大,導致他們犯下災難性的錯誤。另一方面,如果核大國設法建立一種與AI可能提供的新能力相適應的戰略穩定形式,就可以減少不信任並緩解國際緊張局勢,從而降低核戰爭的風險。

作者們表示,無法預測這兩種情景哪一種會發生,但國際社會必須立即採取行動,以減輕潛在的風險。在解決方案而言,作者提出了國際討論,建立新的全球機構和協議,發展創新技術、外交和軍事保障等。

這是技術的雙刃劍。AI既可以導致我們的厄運,也可以像在《巨人:福賓計劃》(Colossus:The Forbin Project;1970)和《戰爭遊戲》(War Games,1983)等電影中那樣,保護我們免於由於自己的錯誤而毀滅。那麼,最好記住這句古老的格言:抱最好的希望,做最壞的打算

報告地址:https://www.rand.org/pubs/perspectives/PE296.html

【加入社群】

新智元 AI 技術 + 產業社群招募中,歡迎對 AI 技術 + 產業落地感興趣的同學,加小助手微信號: aiera2015_1 入群;通過審核後我們將邀請進群,加入社群後務必修改群備註(姓名 - 公司 - 職位;專業群審核較嚴,敬請諒解)。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

歐洲AI復興 馬克龍:法國AI要趕美超中!

TAG:新智元 |