當前位置:
首頁 > 軍情 > 「天網」會降臨我們的現實世界嗎?

「天網」會降臨我們的現實世界嗎?

【文/觀察者網專欄作者 席亞洲】

本周,路透社報道「韓國大學研製AI武器,遭多國專家斷交」,艾倫·馬斯克照例來秀了一把存在感,也有一些在人工智慧領域有些名氣的專家發表了一些觀點。但是這並沒阻止美國國防部先進技術研究局開始「攻擊性蜂群」競賽項目的熱情。以及各國軍方在新技術發展規劃中紛紛寫明要研究AI系統在軍事領域的運用。那麼,「天網」會降臨我們的現實世界嗎?本文來試著分析一下。

「天網」會降臨嗎?

其實關於「壞」人工智慧的故事,早就已經是科幻小說的常見話題了,事實上,它甚至要比喜歡討論人工智慧的「賽博朋克」小說出現的更早。

阿西莫夫當年的《鋼窟》系列就有不少關於機器人利用邏輯漏洞,突破「機器人三大定律」實施殺人犯罪的故事。

當然,筆者最喜歡的關於人工智慧的故事,是一本想不起名字的經典小說,其中描寫的是人類自我毀滅後,一個AI試圖了解什麼才是人類,但卻無論如何也做不到,最後他克隆了一具沒有意識的人類身體,將自己的意識注入這具軀體。瞬間,他真正用人類的感官體驗了這個世界,然後,他成為了第一個復活的人類。這是讓我這個「唯物主義蠢貨」(睿智的群星玩家)感到「舒服」的一個故事——意識、情感、邏輯……這一切都是基於我們的身體和感知搭建起來的,所以就像AI無法想像人類的感受,人類也註定難以理解AI的「感受」。

而大家熟悉的,更多的AI故事則是來自於電影和遊戲,《終結者》大概是說起AI毀滅人類,大家首先想到的一個故事。而《終結者》的故事,也正是無數「科學大咖」們試圖描繪的,人類應該避免的一幅圖景。

毀滅人類的終結者大軍,實際上代表了人類對無法理解AI的恐懼

在1984年電影《終結者》中,超級AI「天網」是由美國軍方開發的一套戰略決策系統,他們讓它掌握了美國的核武器,結果,這個「天網」在開始運轉後幾分鐘,就發現對於它來說,人類是最大的威脅,為了毀滅人類,它向蘇聯發射了核武器,引發核大戰,毀滅了大部分人類。然後,它又利用其控制的工廠,生產出冷酷無情的機器人殺手「終結者」,來徹底消滅殘存的一小部分人類。

這個故事的核心在於,人類無法理解AI,無法理解一旦AI產生自我意識後,會做出什麼樣的反映。

而當AI試圖接近人類的表現和情感,變得「可以理解」的時候,它就由恐怖殺手變成了忠實的夥伴

當然,時過境遷,在那之後,關於AI,無數科幻影視和幻想小說又做出了無數的想像。但人們仍然不知道,如果真正的「強人工智慧」真的出現,它會有什麼想法。

事實上,這方面,軍方又走在了前面。不久前,DARPA主管人工智慧研究的一位領導就表示,他們下一步在人工智慧方面的研究,將集中精力於創造一個可以向人類解釋自己決策,並真正值得信任的AI。

想像一下,如果「阿爾法狗」的後代,能夠說明白它到底是「怎麼想的」,那將是一副什麼情景?

然而這很難。

看過EVA的朋友們都記得,在這部作品裡,巨大的「機器人」其實是用「夏娃」和人類的基因混合克隆出來的「巨人」,而駕駛員要接入它的神經系統,實際上就是讓兩個靈魂融合,而要實現這種融合,就會聽到有個操作員喊一句「思維模式,調節到日語」。

這背後其實是有個基本原因的,人類的意識和思維,是要靠語言進行的——所以人類才能解釋自己是如何思考的。

正是因為我們的邏輯思維要依靠語言進行——所以沒有掌握語言的人,有沒有思考能力呢?如果他後來學會了語言,又能否向別人解釋他形成語言能力前,有沒有能力思考呢?沒人知道,因為所有「狼孩」都沒能真正學會語言,因此其心理和智力發育十分緩慢,在一例美國人研究的「狼孩」案例中,這孩子17歲時剛剛達到普通兒童3歲半的智力水平,因此無法給我們解釋她年幼時期的感受。

由這一點說來,「人猿泰山」是個反智主義大毒草:在無語言環境下成長的「泰山」不可能擁有和文明世界的人類相似的思維

但可以肯定,現在的「深度學習」型人工智慧,它的思維過程,無法被我們理解。它的思維與我們所知道的任何別的東西都不一樣,既不同於動物本能,也不同於我們的思維。

所以說,真正研究人工智慧的專家,對於人工智慧的擔憂是可以理解的,畢竟「恐懼源於未知」。

不過話又說回來,正如美軍自己的表述,這種「無法解釋自己」的人工智慧,就是「不能被信任」,所以任何軍隊也不會將武器交給這些人工智慧去控制。因為你根本無法預計它們會做什麼——而這和全世界軍隊對於「武器」的首要要求背道而馳。

日本輕小說《全金屬狂潮》中,設想了這樣一種裝置,它能夠在駕駛員攻擊或防衛衝動控制下,直接發出物理能量(能量來自核反應堆),比如你產生摧毀你前面的一輛坦克的衝動,它就會被轟飛,你試圖抵擋敵人的炮彈,敵人的炮彈就真的會被彈飛。但是,這種裝置只能被人腦特殊的腦波操縱,而這種腦波要麼靠精神類藥物產生,從而讓駕駛員變成瘋瘋癲癲,要麼就是關鍵時刻就用不出來。所以,小說里的軍方對它評價為——沒有實用價值。

當然這種東西很符合日本特色的「中二少年拯救世界」的想像,但作為日本動漫編劇當中少有的懂軍事的作者賀東招二,至少在「λ驅動器」在正常的軍隊眼裡會得到何種評價方面,寫的一點不錯。(當然書里不計後果的恐怖組織「秘銀」和「汞合金」都在使用這種玩意……)

吃我中二護盾啦!!

就算你威力再大,但如果過於不穩定,以至於無法預測使用效果,那實用價值就近乎於——沒有……

為什麼世界各國都很少讓試驗性武器上戰場?就是因為這個道理。

筆者之前曾經問過「彩虹5」無人機的設計師,有沒有考慮過在無人機上採用「深度學習」型的AI,他的回答也是這個意思:「既沒有必要,技術難度也太大了,我們現在還是用腳本方式實現自動化操作的。」

「彩虹」5無人機可能在後續型號上實現更高水平的人工智慧,不過依然是腳本觸髮式

換句話來說,到目前為止,真正有可能投入軍事領域實用的AI技術,最複雜的也仍然是和各位平時玩RTS遊戲里的電腦玩家AI一樣,實際上是一系列觸髮腳本。

本質上來說,這樣的AI,和人類最原始的「AI」——陷阱的原理是一樣的:當目標滿足一定(走到陷阱上面)條件時,「AI」就會做出設計者預期的反映(讓目標掉進去)。

所以,人們完全可以預料到AI在某種特定環境下,會做出什麼動作。如果它超出了你的預料——那就是哪裡腳本寫錯了……

這種AI,其實是不大可能引發這些專家們所說的「AI毀滅人類」的事情的——只要得到充分調試和試驗。

況且,這樣的AI,因為觸髮腳本數量畢竟有限,它也無法真正替代人類操作者。現在為止,類似無人機這樣的武器,比如「彩虹4」,雖然已經能夠實現自主搜索目標,甚至自主攻擊,但是仍然要有個操作員來隨時監控它的運轉。因為在「彩虹4」這類無人機作戰中,真正最難,最需要人類參與的部分——目標識別和判斷目標性質,這依然只有靠人來完成。

所以,之前我們就提到過,那些使用「彩虹」無人機的中東國家,最後派來學習無人機操作的,不是戰鬥機飛行員,也不是遊戲宅男,而是熟悉他們將要執行的任務區風土人情的人——他們看到地面上的人駕駛汽車的習慣,就能判斷那傢伙是不是本地人。

所以,美國無人機總是炸死平民的原因就出來了……

所以說到底,現在的AI武器,仍然是「人在殺人」,而不是「機器在殺人」。

既然認識到了這一點,擔心現在的「AI殺人導致道德問題」,就是一種「泛化」的說法了。說到底,這和反對用飛機殺人,反對用槍殺人,反對用毒氣殺人,反對用燃燒武器,反對用霰彈槍……最後說到底,反對用任何方法殺人——是一樣的。

這樣做對嗎?道德上看當然是對的,但從理性角度來看,就沒那麼「對」了。

我們也都知道,戰爭,或者說殺人,這是人類社會出現之前,我們的祖先就已經在天天乾的事情了——智人消滅了自己的表親尼安德特人可能是最接近某些宗教中所說「原罪」的行為。

如果單純從道德角度來反對將任何技術用于軍事用途,其實是一件很困難的事情——我同意,並非所有提出這種反對的人都是別有用心,這裡面確實有一些真正的道德高尚之士——但真正推動這些東西並使之形成法律或者規則的,說到底還是暴力,因為法律和規則都是靠暴力為後盾而推行的。而推動軍事領域禁用某種武器的,十有八九是大國間的互相威懾和平衡,以及技術的發展。

禁止AI武器,跟禁止地雷,禁止集束炸彈,禁止凝固汽油彈的原因是一樣的

比如達姆彈,我們都知道,這是因為在當時英國人火藥技術方面落後於德國,子彈初速上不去的情況下弄出來的東西。而後來英國人技術上去了,子彈威力上去了,就不搞達姆彈了,然後就開始推動禁用。

而到了現代,化學武器之所以被禁,是因為到了兩次世界大戰之間的時期,互相用航空器來投擲化學武器襲擊對方城市的話,大家都只能同歸於盡——這其實有點後來核平衡的意思了。

至於到了現代,核競賽、核平衡、核裁軍——世界上威力最強大,最不人道的武器為世界創造了有史以來最長的一段總體和平時期。

這是多麼諷刺的事情——善良和道德從未阻止過戰爭;真正阻止戰爭的,偏偏是最大的惡意——「確保互相毀滅」。

順便說一句,貿易戰也是如此——所以筆者並不擔心中美貿易戰。畢竟這年頭,徹底中斷中美貿易,和用核武器互相轟是一樣的。

反過來,今天的學術界——當然了,艾倫·馬斯克這樣的金融界人士不算——如果真正想要阻止AI被用於戰爭,最簡單的選擇是徹底停止發展AI……

然而,沒有人能做到這一點,因為畢竟「戰爭,戰爭從未改變」,現代世界早就不是天才的世界了,任何技術領域,只要投入足夠多,「死了張屠夫,不吃混毛豬」,各國軍方真想發展這種東西,豈是幾個有點幼稚的善良科學家能阻止得了的?

既然如此,唯一符合理性的做法,恰恰是努力發展這方面技術,不管人類最後是否能跨越「超人奇點」(實現人類與AI的融合,或者AI超越人類),我們都應該儘早跨越這段人類根本無法理解AI的「蒙昧階段」,讓人類真正能夠信任AI,才能讓AI被運用到各個領域,不管是造福人類的方面,還是用在戰爭的領域——反正,「機器人三大定律」只是阿西莫夫為了構思推理小說而想像出來的東西,根本實現不了。

以數學語言編程的機器人,怎麼能理解人類語言編寫的「三定律」呢?


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 觀察者網軍工頻道 的精彩文章:

特朗普倡議建立「太空軍」
美國海軍:官多兵少 建成355艘戰艦時將短缺5萬水兵

TAG:觀察者網軍工頻道 |