當前位置:
首頁 > 最新 > 谷歌說「不作惡」?Nature評論:人工智慧研究應當成為軍事發展的助力

谷歌說「不作惡」?Nature評論:人工智慧研究應當成為軍事發展的助力

機器之心整理

機器之心編輯部

今天,谷歌首席執行官桑達爾·皮查伊宣布了「谷歌 AI 研究七大準則」,為公司近期在軍事 AI 項目上的爭議作出了官方回應。與此同時,美國智庫 New American Security 研究員 Gregory C.Allen 在 Nature 上撰文表示,谷歌人工智慧研究員合乎道德的做法應該是參與選擇國家安全項目,而不是關閉所有項目。

今年 1 月,谷歌 CEO Sundar Pichai 曾表示人工智慧的影響會比電力「更深刻」。他遵循谷歌領導者的悠久傳統,稱其技術是變革性且美妙的。

問題在於變革性的技術也會變革軍事力量,AI 也不例外。6 月 1 日,谷歌宣布不會續簽與美國軍方合作的 Project Maven 合同。該項目是美國軍隊首次在操作層面上部署「深度學習」AI 系統,使用處理層將數據轉換成抽象表徵,在此項目中,其目標是將軍事無人機收集的攝像片段圖像進行分類。在大約 4000 名谷歌員工簽署禁止谷歌參與構建「軍事技術」的請願書後,谷歌決定撤出該項目。

這種退卻帶來了巨大的道德風險。將先進的 AI 技術整合到軍事領域和過去將電力應用到軍事領域一樣,都是不可避免的,這一變遷充斥著倫理和技術風險。它將採用很多天才 AI 研究者的研究成果作為輸入,來幫助軍隊保持倫理道德的正確方向,包括谷歌等大公司的研究者。

去年,我代表美國智能社區進行了一項研究,結果顯示 AI 的變革性影響將覆蓋國家安全的方方面面。軍事機器人、網路安全、監控和宣傳在面對 AI 支持的破壞行為時是很脆弱的。美國、俄羅斯和中國都期望 AI 成為未來軍事力量的基礎,美國及其盟友在重要軍事技術方面的壟斷(如隱形戰機和精確制導武器)正走向結束。

我很同情面臨是否支持軍隊難題的學界和業界研究者。一方面,保護美國及其盟友的安全、自由和強大,以阻止潛在威脅一如既往地重要。幫助軍隊利用新技術能夠減少戰區士兵和公民的危險,同時增強國家安全。

另一方面,幫助軍方的研究者有時又會後悔。一些為曼哈頓項目工作的科學家(該項目開發了二戰中使用的原子彈),後來認為如果沒有原子彈研究,世界會變得更好。很多 AI 應用在倫理和法律上可能存在問題,比如幫助警察偵察和判刑的軟體所遇到的麻煩。

幸運的是,美國 AI 研究者可以自由選擇項目,並影響他們的員工和合作者。

然而,即使研究員拒絕參加一個項目,他們也不能真的選擇不關心國家安全的後果。很多業餘愛好無人機製造商驚恐地發現他們的產品被伊斯蘭教恐怖分子組織 ISIS 用於對美國軍隊投擲炸彈。毫無疑問很多開發無人駕駛汽車的研究員並沒有完全考慮該技術對無人坦克或無人汽車炸彈的影響。但忽略潛在的應用並不能阻止它們的發生。

此外,AI 科學家將他們的很多工作開源。在這些案例中,發表演算法、代碼庫和訓練數據集將使這些構建模塊對所有軍方可用,本來溫和的項目也可能帶來有害的應用。技術公司全面拒絕和美國國家安全組織合作將會事與願違,即使其它公司選擇了合作。國家的 AI 研究員需要傾聽軍方對技術安全後果的聲明,而軍方也需要廣泛的專家建議來合乎道德和有效地應用 AI。

這並不是說 AI 研究人員應該隨意支持美國軍方設計的每個項目。一些提議可能是不道德以及愚蠢的,研究人員應該拒絕這些提議。

但是有些 AI 項目真的能提升國家安全,並符合法律與道德上的準則。例如美國國防部高級研究計劃局在對抗由 AI 構建的偽造視頻和音頻上的工作。人工智慧研究社區應該考慮這一類的項目,或者至少不要妖魔化這些研究項目。

還記得細菌學家 Theodor Rosebury,他在 20 世紀 40 年代為美國軍隊研究生化武器。在第二次世界大戰後,Rosebury 將它的生化武器限制在防禦性研究,並主張將防禦作為美國軍隊的唯一策略,他的立場最終被載入 1972 年的「生化武器公約」。現在,我們再回到谷歌和 Project Maven。

多年來我都參與提倡美國軍方增加高級 AI 技術的使用,並且是以謹慎和具備道德意識的方式。Project Maven 執行的是 non-safety-critical 的任務,和暴力並沒有直接聯繫,這正是我所希望的。系統使用 AI 計算機視覺來自動化無人機視頻分析的大部分枯燥工作:人群、車輛和建築的計數。企業的參與涉及的是應有的信用,而不是批評。

全或無的立場是危險的過度簡單化。企業的和學術界的 AI 專家擁有獨特的和必不可少的機會來幫助軍方整合 AI 技術,並以合乎道德的方式支持國家和國際安全。

谷歌 AI 研究的七條準則

在上周五決定退出軍事 AI 項目 Project Maven 之後不久,谷歌首席執行官桑達爾·皮查伊於今天發布了公司在 AI 研究,特別是 AI 軍事研究上的道德準則。長達兩個月的爭議和抵制之下,谷歌改變了其在軍事領域上的指導方向。值得注意的是,在新的準則之下,谷歌表示其將繼續和軍隊保持合作。

谷歌認為人工智慧應用應該實現的目標如下:

1. 有益於社會

新技術的擴展對社會的影響越來越大。AI 領域的進展將對醫療、安全、能源、交通、製造業等大量行業帶來革命性影響。谷歌考慮 AI 技術的潛在開發和使用,以及大量社會和經濟因素,決定將繼續進行其認為整體益處遠遠大於可預見風險和弊端的領域。

AI 還增強了理解大規模內容的能力。谷歌將繼續努力,利用 AI 提供高質量、可獲取的準確信息,同時繼續尊重各個國家的文化、社會和法律規範。谷歌將繼續審慎評估何時能夠在非商業的基礎上推廣技術。

2. 避免創造或增強偏見

AI 演算法和數據集能夠反映、強化或減少偏見。谷歌意識到區分公平和不公平偏見不總是那麼簡單,且在不同文化和社會背景下有所不同。谷歌將尋求避免對人類的不公平影響,尤其是在敏感話題方面,如種族、民族、性別、國家、收入、性取向、能力和政治或宗教信仰。

3. 為保障安全而建立和測試

我們將繼續開發和應用強大的安全保障和安全的實踐以避免不希望發生的導致風險的結果。我們將把 AI 系統設計得適當的謹慎,並探索按照 AI 安全研究的最佳實踐來開發的方式。在合適的案例中,我們將在受限的環境中測試 AI 技術,並在部署之後監控它們的運行。

4. 對人們有說明義務

我們將設計能為反饋、相關解釋和上訴提供合適機會的 AI 系統。我們的 AI 技術將服從合適的人類指導和控制。

5. 整合隱私設計原則

我們將把我們的隱私原則整合進 AI 技術的開發和使用中。我們將為通知和准許提供機會,鼓勵架構中結合隱私保護,並對數據的使用提供合適的透明度和控制。

6. 堅持高標準的科學探索

技術創新根植於科學方法和開放式的調查、嚴謹的思考、誠信和合作。人工智慧工具可能在生物、化學、醫藥、和環境科學等關鍵領域具有開拓新科學研究和知識的潛力。我們致力於促進人工智慧的發展,追求高標準的科學探索。

我們將與一系列志同道合的人合作,以科學性的嚴謹和多學科的方式促進這一領域領導力的發展。我們將通過發布教育資源、最佳時間和研究項目來負責任地分享 AI 知識,並令更多的人開發強大的 AI 應用。

7. 根據原則確定合適的應用

許多技術有多種用途。我們將努力限制可能有害或濫用的技術應用。在我們開發和部署 AI 技術時,我們將根據以下因素評估可能的用途:

主要目的和用途:技術和應用的主要目的和用途,包括解決方案與危險使用的關聯或它是否能適應於危險使用。

自然和獨特性:我們提供的是獨特的技術還是普遍的應用。

規模:這種技術的使用是否會產生重大的影響。

谷歌在項目中的性質:我們是提供通用目的的工具、為客戶集成的工具還是開發定製版的解決方案。

谷歌不會推動的 AI 應用

除了上面的目標,谷歌不會設計或者將 AI 應用到以下領域:

只帶來或者可能只會帶來傷害的技術;雖然有些技術有實質性的危害風險,我們將只會進行大體上收益大於危害的技術,同時也會做出合適的安全保證。

武器、其目標或者實現是為了直接/間接傷害人類的技術。

違背國際可接受的標準,收集或者使用監督信息的技術。

違背國際可接受的律法、人權等普世原則的技術。

谷歌希望澄清,雖然該公司決定不開發用於武器的 AI,但其將繼續與政府、軍隊在其他許多領域合作,包括網路安全、訓練、軍人招募、軍人健康、搜索與營救。這些合作非常重要,谷歌稱自己將積極尋求更多方法來增強這些組織的重要工作,保證服務人員與平民的安全。

https://blog.google/topics/ai/ai-principles/

本文為機器之心整理,轉載請聯繫本公眾號獲得授權。

------------------------------------------------


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

從構建關係網到面試最後一問,這是一份AI公司應聘全面指南
從零開始,了解元學習

TAG:機器之心 |