當前位置:
首頁 > 最新 > Google宣示不發展戰爭AI

Google宣示不發展戰爭AI

作者:那福忠 來源:brain

約兩個月前,3,000名Google員工聯名寫信,抗議公司高層用機器學習軟體協助國防部發展AI,此「參戰」在內部一直沒有平息,而Google終於在日前宣布退出「戰區」。

本專欄四月份曾談到「AI能不能軍用?」,當時全球幾十名AI學者聯名呼籲AI不可以用在戰爭,然後又有三千名Google員工聯名寫信,抗議公司高層用機器學習軟體TensorFlow,協助國防部發展AI。

Google參與的國防計劃叫Maven,目的在發展「計算機視覺」(Computer Vision),來精密解讀無人機追蹤目標拍攝的影像。 Google的「參戰」在內部一直沒有平息,在更多員工抗議、及部分員工憤而辭職之後,終於日前宣布退出「戰區」,以後不再用AI發展用在武器或傷害性的技術,至於已進行的Maven計劃,則於明年合約到期後退出,不再續約。

Google執行官Sundar Pichai為此宣布了七項發展AI的」倫理」,禁止發展自動化武器,但對非戰爭性的國防用途,仍保留彈性。下面就是這七項倫理規範:

1、公益:

AI 廣為運用在保健、安全、能源、交通、製造、娛樂各個領域,提供高質量的精準信息,尊重使用所在地的文化、社會、法律的規範。

2、避免偏頗:

強調對影響到人的敏感特性,包括種族、性別、國籍、收入、性傾向、能力、政治與宗教信仰等,盡求公允。

3、安全:

加強安全考慮,避免意外產生的危險與傷害,特定的AI技術會在封閉的環境測試,嚴密監視 。

4、對人負責:

AI系統會給人反饋、解釋、申訴的機會,AI技術也會由人來主導、控制。

5、隱私:

AI技術的發展與使用會遵照隱私原則,提供數據的透明與管制。

6、高標準:

技術創新源於科學方法,AI工具有潛力解開新的科學知識,會以高水平的卓越科學,來發展AI技術。

7、使用:

技術有多種功用,但會限制有潛在傷害或濫用的領域。

除了上面的規範,Google又提出負面不會發展的技術:

1、可能導致傷害整體的技術。

2、目的在傷人的武器或技術。

3、違反國際規範收集監視情報的技術。

4、違反一般國際法與人權的技術。

5、再一次表明不會發展用在武器上的AI,但會與政府及軍方在其他的領域合作,包括網路安全、訓練、軍事人力聘僱、軍人保健、搜尋與營救。

Google又提出長遠的AI目標,說要對股東負責,來提升領導力,並用嚴格的科學與多學科的方式,繼續分享所學到AI的技術。用這一原則發展未來的AI,與2004年公司創辦的價值一致,當初說過的價值,現在更相信是正確的方向。

現在的AI已轉向雲端,完整的神經網路架構,開放給人使用,用自己的數據訓練,發展自己的AI,變得越來越容易。Google、亞馬遜、微軟,是目前主要的AI雲端供應者,仍有蘋果等追趕在後,爭食這一龐大市場。

上世紀90年代關連式資料庫出現,大家都知道好用,但懂得運用的人卻很少。AI現在正面臨同一情況,大家都知道好處很多,但了解技術的人卻少,有人說全球有上千萬家企業或機構可以受益於AI,所以AI雲端的使用會越來越大眾化,得益於AI會越來越容易。

AI的軍用,可能讓大家立刻想到好萊塢電影《終結者》(Terminator),完全自主的武裝機器人任意肆虐,傳說有這方面的研究,但距成熟還遠。其實除了用在戰場,AI的軍事用途還很多,專家說主要可用在三個領域。

一是數據處理,如同一般的公司機構,有龐大的數據需用AI處理。二是加速,戰爭的速度越來越快,每一件事都要加快,AI會讓每一件事變快。三是協調,複雜的戰爭已無法單用人力協調,必須藉助AI。

但AI用在軍事總教人不太舒服,甚至恐懼,AI的技術公司遵守「倫理」規範,不去發展用在戰場上的AI,是不是就解除這一迷失,恐怕還沒那麼簡單。

AI的雲端提供了機器學習架構,使用的人可用來發展自己的AI,發展的結果是否仍能遵守規範,也許就難以約束了。AI不是武器,僅是能源,有了能源可以做的事就很多了。

軍用AI的需求龐大,除了軍方自行開發,借用民間技術在所難免。據報導,亞馬遜與微軟,正以億計的雲端計算標案,對像是五角大廈。

關於我們:網站內容更精彩!


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 物聯之家網 的精彩文章:

智能音箱透過AI與硬體擴展優化產品使用體驗
韓國AI人工智慧發展趨勢

TAG:物聯之家網 |