當前位置:
首頁 > 新聞 > AI 在谷歌,如何「不作惡」

AI 在谷歌,如何「不作惡」

AI 在谷歌,如何「不作惡」

雷鋒網 AI 科技評論按:今年 3 月,谷歌與美國國防部在 Project Maven 上合作的消息泄露。由於 Project Maven 的目標是用於無人機的視頻檢測、目標識別,未來可能應用到作戰中。

消息一經傳出立即在谷歌內外引發了巨大反響。不僅廣大網民/谷歌用戶質疑谷歌降低了自己道德水準,4 月,超過 3100 名谷歌員工聯名上書谷歌 CEO Sundar Pichai,呼籲谷歌退出 Project Maven 並要求公司「永遠不再開發戰爭相關技術」;5 月,面對公司高層不甚明了的態度,十餘名谷歌員工甚至提出離職作為抗議。

在廣大谷歌員工的殷切要求與期盼下,谷歌雲首席執行官 Diane Greene 在與員工的一次內部會議上宣布不再與國防部續簽這一項目,Sundar Pichai 今日也在谷歌博客發出了標題為《AI 在谷歌:我們的行為規範》的文章,作為公開信明確表明了自己對於包括軍事用途在內的 AI 與谷歌公司全方位關係的態度。

AI 在谷歌:我們的行為規範 - Sundar Pichai

本質上,AI 是一種可以學習並適應的計算機程序。它並不能解決所有的問題,但它有巨大的潛力可以改善我們人類的生活。谷歌就在藉助 AI 的力量讓自己的產品更有用,比如可以隔絕欺詐郵件、也易於寫作的電子郵件,到可以用自然語言溝通的電子助理,再到能自動捕捉下精彩瞬間的照相 app。

除了谷歌的產品,我們也在使用 AI 幫助人們解決更緊急的問題。在谷歌員工參與的項目中,一群高中生在設計帶有 AI 功能的感測器用來預測森林火災的風險,農民在藉助 AI 追蹤自己的獸群的健康狀況,醫生也正開始利用 AI 幫助檢測癌症以及防止失明(雷鋒網 AI 科技評論註:糖尿病導致的長期高血糖會導致失明,早期癥狀可以由眼部照片發現)。谷歌之所以在 AI 的研究和開發上有大規模的投入、努力通過谷歌開發的工具和開源代碼讓更廣泛的人群也可以掌握 AI 的力量,正是因為我們可以看到這些明確的好處。

我們同時也認識到,如此強大的技術也引發同樣重大的問題,那就是如何使用它。我們開發、使用 AI 的方式在未來的許多年內會對我們的社會產生深遠的影響。作為 AI 領域的領導者,我們感覺到自己肩負了深刻的責任,要用正確的方式做這一切。所以今天,我們公開宣告以下七項行為規範,以它們指導我們未來的工作。它們並不是理論上的概念,而是切切實實的標準,它們將積極主動地約束我們的技術研究和產品開發,並將影響我們的商業決策。

我們明白這個領域是高度變化、持續發展的,我們也會帶著謙卑的心態、對內部和外部事務的承諾以及不斷改善的意願持續學習、持續前進。

AI 應用的設計目標

我們會以下面的幾個目標評估 AI 應用。我們相信 AI 應當:

  1. 對社會有益

    隨著新技術的不斷發展壯大,它對整個社會的影響也越來越大。AI 方面的進展會為許多領域帶來革命性的轉變,包括醫療、安全、能源、交通、製造以及娛樂。當我們考慮 AI 潛在的發展方向和應用方式時,我們也會一併考慮各種社會以及經濟因素,並向著我們認為總的來說可能的收益要明顯高於可預見的風險和問題的方向前進。

    AI 同樣能增強我們理解海量內容含義的能力。藉助 AI 的力量,我們努力讓高質量、準確的信息隨時可用,同時也持續地尊重運營地域的文化、社會、法律慣例。我們也會持續地仔細評估何時可以把我們的技術成果以非商業化的方式向全社會開放。

  2. 避免創造或增強不公平的偏見

    AI 演算法和數據集能夠反映、增強又或者減少不公平的偏見。我們注意到如何區分公平和不公平的偏見並不是總是一件容易的事情,而且這在不同的文化和社會中也會有所區別。我們會努力避免針對人類的不公平的影響,尤其是和敏感的個人特質相關的因素,比如人種、種族、國籍、收入、性取向、能力以及政治及宗教信仰。

  3. 構建和測試中注重安全

    我們會不斷設計強有力的安全與防護措施並應用它們,避免出現有可能會傷害人類的結果。我們設計的 AI 系統將會足夠謹慎,在開發時也會符合 AI 安全學術研究方面的最佳做法。對於合適的情況,我們也會在受限的環境中部署並觀察 AI 的行為作為測試手段。

  4. 對人類負責

    我們設計的 AI 系統應當給與人類適當的給出反饋、做出相關的解釋以及提出異議的機會。我們的 AI 技術也會接受適當的人類指導以及控制。

  5. 符合尊重隱私的設計規範

    我們會在 AI 技術的開發和使用中遵守我們的隱私政策。我們會提醒用戶知情以及同意,鼓勵使用帶有隱私保證的架構,並在數據使用中保證適當的透明性和控制力。

  6. 保持與傑出科學研究一樣的高行為標準

    科技創新的根本是科學的方法,以及承諾可以開放地質詢、嚴謹地思考、完整性、並多方合作。AI 工具有潛力在生物、化學、藥物、環境科學等領域開闢出科學研究和科學知識的新天地。我們在 AI 的開發和進步過程中也深受這樣的傑出科學研究的高標準鼓舞。

    我們會與許多股東攜手為這個領域培養深思熟慮的領導方式,關注科學性的嚴謹性和多學科聯合的工作風格。我們也會擔負起分享 AI 知識的責任,包括向全社會公開教學材料、最佳做法、以及能夠讓更多人參與開發出有用的 AI 應用的研究成果。

  7. 為符合以下標準的應用做好準備

    許多技術都有多種應用方式。這些方面我們的努力方式將會是限制潛在的有危險的或者可能被濫用的應用。在我們開發和部署 AI 技術的過程當中,我們會注意評估以下應用相關的因素:

  • 主要目的以及應用:技術及應用的主要設計目標以及可能的應用方式,包括解決方案與有害的使用方式之間的關聯性,或者用於有害應用的適配性。

  • 自然性及獨特性:獨特性針對性的技術是否開放可用,更廣泛通用的技術是否開放可用

  • 規模: 這項技術的使用是否會帶來重大影響

  • 谷歌的參與程度的本質:我們是否要為客戶提供通用性的工具、集成式的工具,還是開發定製化的解決方案。

我們不會參與的 AI 應用

在上面這些目標之外,谷歌同時還不會參與下面這些應用領域的 AI 設計以及部署:

  • 將會對、有可能對人類全體造成傷害的技術。對於有可能造成物理性傷害的狀況,只有在我們相信好處可以明顯大於風險時才會繼續行動,同時也仍然會施加適當的安全限制。

  • 主要目標或者工作方式是對人類造成傷害/直接幫助對人類造成傷害的武器以及其他技術。

  • 違反國際慣例,收集、使用信息用於監視的技術。

  • 目標與國際法、人權方面廣泛接受的條款有衝突的技術。

這裡需要說明的是,雖然我們不會開發用於武器的 AI,但我們仍將與政府及軍方在多個方面展開合作。合作內容包括信息安全、培訓、士兵招募、退伍軍人的醫療衛生,以及搜索援救。這些合作內容也很重要,我們也會積極地尋找更多的方式增強這些組織中的關鍵成果,並為軍政人員和平民都保證安全。

長遠的 AI 建設

雖然我們已經選擇了以這樣的方式向 AI 前進,我們也明白這場討論中還容得下許多不同的聲音。隨著 AI 技術發展,我們也會和一部分股東合作,為這個領域培養深思熟慮的領導方式,關注科學性的嚴謹性和多學科聯合的工作風格。我們也會一如既往地分享我們在改進 AI 技術和實踐方法中的所學所見。

我們相信這些行為規範為我們公司和 AI 的未來發展建立起了正確的基礎,它也和我們最初的創始人在 2004 年的公開信中表達的價值觀相一致。今天,我們針對長遠發展表明了我們的態度,即便它意味著我們需要做出一些短期的犧牲。我們是這麼講的,我們也是這樣認為的。(完)

對社會有益的 AI,踐行早已開始

AI 在谷歌,如何「不作惡」

據雷鋒網 AI 科技評論了解,早在這篇文章之前,即便谷歌由於 Project Maven 被詬病,但谷歌對於 TensorFlow 等工具、自己的各項研究成果、與其他機構的合作、免費谷歌雲平台資源、內部機器學習培訓課程等方面的開放態度,仍然使得谷歌是領域內價值觀最為正向、員工最認為自己做的是高於商業利益的、有益於全人類的公司;也正是員工們在工作環境中感受到並凝聚起來的強烈正義感,才讓他們做出了聯名簽名甚至決定辭職的決定。從外部評價而言,TensorFlow 在領域內的支配地位就是最佳證據。

文章發出之後,即便社交平台上的部分網友們仍然希望谷歌採取更明確、更嚴苛的行為規範,但 Ian Goodfellow、David Ha、Fran?ois Chollet 等谷歌大腦成員已經帶著自豪轉發。畢竟這也是首家給出了明確的、有社會責任感的表態的 AI 賽道上的科技巨頭。

原谷歌大腦、現谷歌 AI 負責人 Jeff Dean 補充道:「隨著 AI 被應用在社會上越來越多的問題當中,仔細思考思考我們如何執行這一切的行為規範就非常重要。這份谷歌 AI 的行為規範就展現了我們對於這些問題的思考。另外,我們也一併公布了我們實際踐行這些規範的技術解決方案 —— 我們希望我們這個整體前進的社區中的每一個人都能有所學、有所用。 https://ai.google/education/responsible-ai-practices」(雷鋒網 AI 科技評論註:其中包含了方面的具體的設計及開發技巧)

谷歌雲首席科學家、谷歌 AI 中國中心負責人李飛飛教授也轉發評論道:「這是谷歌展現了 AI 第一的戰略光芒的一刻。這是一個機會,讓我們表達出我們的價值觀,也提醒我們有責任開發出對每個人,包括我們自己、我們的領域的社區和整個世界都起到積極影響的技術。能夠像 AI 這樣有巨大潛力改變世界的技術並不多,但是和所有其他的強大的工具一樣,AI 也需要一些指導才能保證它帶來的改變是正向的。這些行為規範對我們是一個提醒,提醒我們注意什麼才是真正重要的;即便我們對於自己所創造的技術有如此的熱情,我們最大的責任也永遠在於這些技術接觸到的人。不過這僅僅是征程的開始而不是結束,我們還有許多重大的挑戰和未解決的問題。為了確保 AI 可以真正成為以人類為中心的技術,它需要我們所有人的參與和努力。

via blog.google/topics/ai/ai-principles,雷鋒網 AI 科技評論整理編譯

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

專訪 Drive.ai 王弢:吳恩達力挺的首個自動駕駛商業化落地項目背後的所有細節
宇視首席架構師姚華 7 年實踐:揭秘「安防+AI」的道與術

TAG:雷鋒網 |