當前位置:
首頁 > 知識 > 軍用殺手機器人,人類的救星還是魔鬼?

軍用殺手機器人,人類的救星還是魔鬼?

「小蜜蜂」殺人機器人蘊含的黑科技

想像一下,在一個安靜的大學教室,學生們都在各自的座位上愜意的自習。

突然,一群小如蜜蜂的不明飛行物從窗戶、門縫蜂擁而入,他們盤旋在教室上空,似乎在進行著掃描和確認。終於,一個沉悶的聲音過後,響起了一聲尖叫——一個男孩倒在了血泊之中。

僅0.5秒的時間,一隻「小蜜蜂」將其攜帶的3克炸藥傾注在男孩頭上,男生當場死亡。頓時,教室成為了屠宰場,瀰漫著尖叫和恐懼。

如此血腥的場景來自於美國加州大學的斯圖爾特·羅素爾教授公布的一段視頻。雖然視頻中「殺人蜂」進行的殺戮並非真實存在,但我們必須清楚的是,視頻中的科技目前已經存在。

聯合國特定常規武器公約會議的「殺手機器人禁令運動」

日前,韓國科學技術院於近期開設了人工智慧研發中心,目的是研發適用於作戰指揮、目標追蹤和無人水下交通等領域的人工智慧技術。

這引起業內專家的廣泛擔憂,30個國家和地區的人工智慧及機器人專家宣布將抵制研究人工智慧武器的韓國科學技術院(KAIST),但該大學並未承諾停止研發。

早在2017年,劍橋大學的生存威脅研究機構相關人員就列出了10種可能導致世界末日、人類滅絕的威脅。名列前茅的正是人工智慧和殺手機器人。

軍用殺人機器人「由來已久」

2012年,聯合國人權理事會克里斯多夫·海因斯曾發布一份報告,呼籲各國凍結 「殺人機器人」試驗、生產和使用。

他認為:「機器人沒有人類的感情,它們不會理解和辨別人類的情感,由於沒有足夠的法律問責制度,加上機器人不應該擁有決定人類生死的權力,因此部署此類武器系統可能令人無法接受。」

如若對軍用殺人機器人定義為「不需要人類干預,或者只需要遠程要求,即可在戰場上完成軍事行動的自動機械」的話,自動炮台、掃雷機器人、軍用無人機均可以包括在內。而且,這類事物活躍在戰場上的時間遠比人們想像中長,機器人「殺人」,從很早以前就開始了。

二戰時期,德軍曾經研製過一種名為「歌利亞遙控炸彈」的反坦克武器。這是一種通過有線遙控(必要時也可無線遙控)來控制的無人「袖珍坦克」,搭載著烈性炸藥,可直接經由坦克底部裝甲炸毀重型坦克。

「歌利亞遙控炸彈」

隨著集成電路技術出現並不斷完善,計算機的體積不斷縮小,20世紀80年代,計算機可搭載在軍用無人載具之內。

同時,計算機的功能也在不斷完善,可以完成控制載具行進、尋找目標、敵我識別和發射武器等一系列任務,而且相對穩定可靠,能夠適應複雜多變的戰場環境。

目前為人熟知的「掠食者」無人機,本質就是軍用殺人機器人。此外,一些國家已經在研製自動化程度更高的戰鬥機器人,允許它們在戰場上自主尋找、選擇目標,再自己決定是否開火。

MQ-9收割者偵查機

是人性還是倫理?這是一個問題

電影《終結者》給我們描述了一個機器人殺戮和奴役人類的黑暗未來,雖然電影中的場景短期內難以在現實生活中復現,智能相對論分析師柯鳴認為,軍用殺人機器人的研究和使用,不僅是人性問題,更是倫理問題。

1.是戰鬥員還是武器?

傳統戰爭主要發生在國家和政治集團之間,戰爭主體是軍隊和軍人。而殺人機器人的研發和應用,軍人不再是戰爭的唯一戰士,戰爭主體地位更加複雜。

傳統火炮、坦克、戰艦離不開人手的操作,軍人乃是戰爭的主體。而殺人機器人具有人工智慧、會思考、能判斷,可以自動發現、識別和打擊目標,自主地完成人賦予的任務,因而就能替代軍人衝鋒陷陣。

如果殺人機器人上了戰場,它們就是真正的戰鬥員。然而殺人機器人是一種具有行為能力卻沒有責任能力的戰鬥員,它不同於傳統意義上的軍人戰鬥員,也不同於武器。殺人機器人到底是戰鬥員還是武器,將難以界定,相應其倫理地位也難以確定。

2.安全問題如何保證?

殺人機器人也沒有感情,不會理解和辨別人類的情感,無法識別眼前被殺戮者是敵是友。自主的殺人機器人如果成為戰爭工具,難以保證不濫殺無辜,尤其是某種原因導致失控故障,沒有人保證它不會襲擊人類戰友的情況,傷害創造它們、軀體卻弱於它們的智慧種族。

事實上,目前還沒有一套控制自動系統出錯的有效措施。一旦程序出錯,或者被人惡意篡改,很可能造成血流成河的慘劇,人類的安全將面臨極大的威脅。如果對研製具有殺人能力的智能機器人不加以限制,總有一天會出現這樣的局面:「全自動」的「殺人機器人」走上戰場,並自主決定著人類的生死。

3.精準敵我識別如何做到?

從冷兵器時代至今,由於敵我識別不暢導致的誤傷,一直是戰場上難以避免的問題。現代戰爭中往往會使用技術手段來避免誤傷,但如果想要讓軍用機器人完全自主行動,需要解決的問題還要更多。

人類士兵不僅可以判斷某個移動的人是敵人、友軍還是平民百姓,而且能夠相對準確地了解對方的來意。但對於軍用機器人來說,它們最多只能分清敵我,卻通常難以判斷對方的「心思」,所以很可能出現槍殺投降士兵和戰俘的情況,而這一舉動是被國際公約所禁止的。

4.是否賦予自主「殺人能力」?

是否賦予自主行動的機器人「殺人的能力」,一直是包括人工智慧、軍事在內的各方專家學者討論的焦點。1940年,著名科幻作家伊薩克·阿西莫夫提出了「機器人三原則」。他指出:「機器人不得傷害人類;必須服從人類指令,但不得與第一原則抵觸;必須保存自身,但不得與前兩條原則抵觸。」

機器人發展與道義的關係

菲利普·迪克在《第二變種》中描述了軍用機器人對人類社會的滲透:在美蘇核戰之後,美國為避免亡國,製造了可以自行組裝、學習並且割人咽喉的軍用機器人,用以襲擊蘇聯佔領軍;但這些機器人不斷進化,自行組裝了具有蘇軍男女士兵和營養不良兒童等外觀的新型機器人,不僅攻擊人類,也自相殘殺,甚至潛入美國在月球的秘密基地,埋下了人類滅亡的伏筆。

當然,單個軍用機器人如果出現程序錯誤,乃至受到來自敵方的干擾或者計算機病毒破壞,確實有可能出現襲擊人類戰友的情況。

但如果據此擔心機器人獲得自我意識之後,會全體背叛人類並自行製造同伴, 仍然為時尚早。

究竟是阿里巴巴山洞還是潘多拉魔盒?

耶魯大學的研究人員把軍用機器人列為人工智慧技術最有前途的應用領域之一。軍用機器人的用途太誘人:既可降低己方士兵的風險,又能降低戰爭的代價。它省去了軍人的薪水、住房、養老、醫療等開銷,又在速度、準確性上高於人類,且無需休息。它不會出現只有人類戰鬥員才會有的戰場應激障礙,情緒穩定,無需臨戰動員,一個指令,就能抵達人類不可及之處,完成各種任務。

但是,如果殺人機器人濫殺無辜,責任又該歸咎於誰呢?英國機器人技術教授諾埃爾·沙爾吉認為,「顯然這不是機器人的錯。機器人可能會向它的電腦開火,開始發狂。我們無法決定誰應該對此負責,對戰爭法而言,確定責任人非常重要。」

從人道主義的角度來看,不論研製殺人機器人的初衷是怎樣,機器人戰爭當殺人機器人被有效利用時,它應遵循期望效果最大化、附帶傷害最小化的功利主義原則。

從功利主義的角度看,殺人機器人不具備人類恐懼的本能,不論智能高低都會意志堅毅,不畏危險,終會一往無前。殺人機器人也不需要人員及與之相應的生命保障設備,即使被擊毀,也不存在陣亡問題,只需換一台新的重新上陣,成本可以大大降低。

使用殺人機器人代替士兵崗位用於戰場中偵察和掃雷和作戰任務,還有助於把士兵從一些極為危險的領域中解放出來,減小戰場傷亡,降低軍事活動的成本和負擔。但是,殺人機器人能像人類士兵一樣在戰場上自動尋找並攻擊目標,那麼失控的機器人就可能給人類帶來巨大的災難。

此外,如果世界各國在殺人機器人方面展開軍備競賽,那將會大大增加軍費的支出。因此,整體上看使用殺人機器人帶來的功利極其有限,反而會給人類帶來極大的威脅,弊遠大於利。無論如何,我們都將難以理解殺人機器人的研製和使用會有助於增加人類的利益。

誠然,軍事殺人機器人的發展會引發軍事領域的巨大變革,智能相對論分析師柯鳴認為,軍用機器人的發展是人工智慧應用于軍事領域的體現,其究竟是阿里巴巴山洞還是潘多拉魔盒,需要人類自身予以甄別,只有將技術真正應用並服務於人類發展,才能真正構建世界的「阿里巴巴山洞」。

本文轉載自【黑科技數據】


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 程序員之家 的精彩文章:

連編程語言都不懂?看完這篇你也會寫區塊鏈
單身程序狗解決了一個技術難題後,沒有妹子可以炫耀,怎麼辦?

TAG:程序員之家 |