當前位置:
首頁 > 軍情 > 這種武器有多可怕?數千名科學家共同簽署該協議,承諾永不發展它

這種武器有多可怕?數千名科學家共同簽署該協議,承諾永不發展它

據觀察者網7月19日報道,馬斯克剛剛領銜2000多名AL專家簽署了一份協議,這份協議的核心內容就是永遠不發展致命的AL武器系統。

AL武器即為致命性自主武器系統,是指能夠自主運作的機器人,我們平時看到的各型無人飛行器、無人作戰車輛、無人水面艇其實都屬於能夠自主運作的武器系統,也是AL致命武器的範疇。

這種AL武器一般用在軍事戰爭中,他可以不受人的操控,能夠自動識別目標、攻擊目標,在機器人眼裡沒有任何情感,只要被認定為敵人,就等於死亡。

對於這種武器其實它一出現當時就引起了許多人的反對,霍金生前曾大力反對,他的那句「小心人工智慧」讓世界銘記至今。霍金曾聯合千餘名AL學者、科學家等向聯合國提交過聯合公開信,揭露AL致命武器的潛在風險,呼籲國際組織頒布禁令禁止。

但是到目前為止正式的禁止AL武器國際公約並沒有達到共識,儘管之前聯合國已經對生物武器、化學武器和太空武器頒布了禁令,但是對AL武器還沒有頒布具有權威性的禁令條約。

這種武器它雖然很高效,但是如果隨著AL技術的進一步成熟和發展,這些致命性武器尤其是機器人被利益熏心的人掌控在手上,未來給人類造成的傷害將無法想像。

不僅是在軍事方面,在其他領域也一直有反對發展機器人的聲音,許多專家聲稱將來機器人將徹底代替人類的存在。但是在人工智慧領域的發展已經到了無法遏制的地步,人們享受智能化給生活帶來的便捷,但同時存在著巨大的隱患。

曾經有一名美籍俄羅斯裔作家曾提出對機器人發展的三定律,其中最重要的一點就是機器人不得傷害人類,但是很顯然機器人在軍事中的應用已經違背了這條定論。因此現在也有越來越多的頂尖AL學者開始意識到問題的嚴重性,站出來反對AL致命性武器的應用。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 復興軍事 的精彩文章:

大放異彩!一波火箭隊齊射令美軍損失慘重,俄:技術來源我們
南方100公里處遭空襲,俄羅斯「首戰」已告捷,總統親臨現場助陣

TAG:復興軍事 |