當前位置:
首頁 > 最新 > 谷歌發布AI開發和使用指南:禁止研發殺人武器

谷歌發布AI開發和使用指南:禁止研發殺人武器

(原標題:Google CEO bans autonomous weapons in new AI guidelines)

網易科技訊 6月8日消息,據VentureBeat報道,谷歌今天發布了人工智慧(AI)開發和使用指南,其中包括禁止製造自動武器和大多數可能危害人類的AI應用。AI指南發布幾天前,谷歌宣布不再與美國國防部續簽分析無人機視頻的合同。

谷歌將自己定位為「AI優先」科技公司、流行開源框架(如Kaggle和TensorFlow)的所有者以及知名研究人員的僱主,它也是AI領域最有影響力的公司之一。谷歌首席執行官桑達爾·皮查伊(Sundar Pichai):「我們想要澄清的是,雖然我們不開發用於武器的AI,但我們將繼續在其他領域與政府和軍方合作,包括網路安全、培訓、軍事招募、退伍軍人醫療、搜索和救援等。」

在博文中,皮查伊闡述了開發和使用AI時應考慮的原則,以及谷歌不會追求的AI應用類別。除了禁止設計自主武器之外,該公司還將尋求避免研發可能傷害或以傷害人類為主要目的的AI,以及「反國際公認規範的收集或使用信息進行監視的技術」。皮查伊表示,谷歌公司研發的AI應該堅持科學卓越的標準,對人類負責,測試後確認安全,以及避免強化偏見。

此前,Google AI主管傑夫·迪安(Jeff Dean)和3000多名員工簽署了一份請願書,敦促谷歌承諾絕不製造自動武器。據報道,約有12名員工因谷歌公司參與國防部的AI項目Project Maven而辭職。該請願書敦促谷歌退出該項目,在谷歌「正努力維護公眾的信任」之際,不這麼做可能「無可挽回地損害谷歌的品牌和其爭奪人才的能力」。

意識到潛在的爭議後,早在去年秋天,Google Cloud首席科學家李飛飛博士就敦促公司「不惜一切代價」避免提及AI,因為當公眾提及Project Maven時,稱其為「AI武器化」,這可能最敏感的AI話題之一。

皮查伊堅持谷歌將繼續與軍方合作,這可能是一個信號,表明谷歌仍計劃爭奪聯合企業防禦基礎設施(JEDI)合同。這是一項與美國軍方簽訂的為期10年、價值100億美元的雲協議,亞馬遜(Amazon)和谷歌等大型科技公司都非常關注。

一份內部備忘錄還透露,谷歌的國防銷售團隊成員認為,參Project Maven與一份價值數十億美元的政府合同直接相關。據報道,谷歌認為其與五角大樓簽署的合同每年可帶來高達2.5億美元的收入,儘管員工們最初被告知合同價值僅為900萬美元。

三月份有消息稱谷歌參與了Project Maven。其他公司,如IBM,也被邀請參與該項目。上周,五角大樓宣布了擴展Project Maven的計劃,並開設了聯合人工智慧中心。谷歌並不是唯一一家因為參與研發自主武器而受到員工反對的企業。今年4月份,超過50名韓國研究人員抵制KAIST人工智慧武器實驗室成立。

皮查伊博客全文:

AI的核心是學習和適應計算機編程,它不能解決所有問題,但它改善我們生活的潛力是深遠的。在谷歌,我們使用AI讓產品變得更有用——從更容易撰寫的無垃圾郵件到可與你自然交談的數字助理,再到讓你盡情享受的照片應用。

在我們的產品之外,我們正在使用AI幫助人們解決緊迫問題。兩名高中生正在研發AI感測器來預測火災的風險,農民們正在用AI來監控他們的牲畜健康狀況,醫生們開始使用AI來幫助診斷癌症和預防失明。這些明顯的好處就是為何谷歌在AI研發上投入大量資金,並通過我們的工具和開源代碼使AI技術獲得廣泛應用的原因。

我們認識到,如此強大的技術對其如何被使用也提出了同樣巨大的挑戰。在未來幾年,AI的開發和使用方式將對社會產生重大影響。作為AI領域的領導者,我們有責任把這一切做好。所以今天,我們宣布七大原則來指導我們的工作。這些都不是理論概念,它們是具體的標準,將積極地指導我們的研究和產品開發,並將影響我們的業務決策。

我們承認這一領域處於動態和不斷發展狀態中,我們將以謙遜的態度對待我們的工作,致力於內部和外部接觸,並願意隨時間的推移而調整我們的方法。

AI應用目標

我們將根據以下目標評估AI應用程序,我們認為AI應該:

1.有利於社會

新技術的廣泛應用日益影響到整個社會。AI的進步將在醫療、安全、能源、交通、製造和娛樂等廣泛領域產生革命性影響。在我們考慮AI技術的潛在開發和應用時,我們將考慮廣泛的社會和經濟因素,並將在我們認為總體收益大大超過可預見的風險和不利因素的情況下進行。AI也大幅增強了我們理解內容意義的能力。我們將努力利用AI隨時提供高質量和準確的信息,同時繼續尊重我們所在國家的文化、社會和法律規範。我們將繼續深入地評估:何時使我們的技術在非商業基礎中可用。

2.避免產生或加強不公平的偏見

AI演算法和數據集可以反映、增強或減少不公平的偏差。我們認識到區分公平與不公平偏見並不總是簡單的,在不同的文化和社會中,公平的定義也存在差異。我們將設法避免AI對人類造成不公正的影響,特別是那些與敏感特徵有關的影響,如種族、種族、性別、國籍、收入、性取向、能力、政治或宗教信仰。

3.構建並測試AI安全性

我們將繼續制定和實施強有力的安全措施,以避免AI造成意外傷害及其後果。我們將設計保持謹慎的AI系統,並根據AI安全研究的最佳實踐進行開發。在適當的情況下,我們將在受限環境中測試AI技術,並在部署後監視它們的操作。

4.對人類負責

我們將設計AI系統,它可為反饋、相關解釋和申訴提供適當的機會。我們的AI技術將受到適當的人類指導和控制。

5.符合隱私設計原則

我們將把我們的隱私原則納入AI技術的開發和使用中。我們將給予通知和同意的機會,鼓勵具有隱私保護的架構,並提供適當的透明度和對數據使用的控制。

6.堅持科學卓越的標準

技術創新根植於科學方法,並需要開放性探究、保持智力嚴謹、誠信和協作。AI工具有可能在生物學、化學、醫學和環境科學等關鍵領域開啟新的科學研究和知識領域。在我們推動AI發展的過程中,我們渴望達到高水平的科學成就。我們將與一系列利益相關者共同努力,在這一領域推進先進的思想,並採用科學嚴謹的方法。我們將以負責任的方式分享AI知識,出版教育材料、最佳實踐和研究,使更多的人能夠開發有用的AI應用程序。

7.開發符合上述原則的AI用例

許多技術都有多種用途。我們將努力限制潛在有害或濫用的AI技術。隨著我們開發和部署AI技術,我們將根據以下因素評估可能的用途:

1)主要目的和用途:技術和應用的主要目的和可能用途,包括解決方案與有害使用的關係或適應性?

2)性質和獨特性:我們是否提供獨特的或更普遍的技術?

3)規模:該技術的使用是否會產生重大影響

4)谷歌參與的性質:我們是否提供通用工具,為客戶集成工具,還是開發自定義解決方案

谷歌不會追求的AI應用

除了上述目標,我們不會在以下應用領域設計或部署AI:

1)造成或可能造成總體傷害的技術。在有重大風險的領域,我們只會在我們認為好處遠遠大於風險的部分進行,並將納入適當的安全限制;

2)武器或其他技術,其主要目的或實施造成或直接導致人類受到傷害;

3)收集或使用信息進行監視的技術,它們違反國際公認規範;

4)其目的違反普遍接受的國際法和人權原則的AI技術。

本文來自網易科技報道,創業家系授權發布,略經編輯修改,版權歸作者所有,內容僅代表作者獨立觀點。[ 下載創業家APP,讀懂中國最賺錢的7000種生意 ]

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 創業家 的精彩文章:

首家兩岸合資消費金融公司獲批 為全國第25家
索尼與卡耐基梅隆大學在AI及機器人達成合作

TAG:創業家 |