當前位置:
首頁 > 最新 > 不作惡的Google回來了!發布「谷11條」,劃清AI道德底線

不作惡的Google回來了!發布「谷11條」,劃清AI道德底線

在人工智慧應該怎麼「管」這個事上,Google 大佬說話,我們要聽。

在國防部合作項目被員工要求關閉的風波之後,Google 發布了公司在使用人工智慧的十一條準則。

其中包括 Google 進行 AI 研發的七個目標,和 Google AI 絕不會進入的四種應用場景,堪稱 AI 道德規範的「谷11條」。

CEO 頌達爾·皮柴 (Sundar Pichai) 在發布準則的公開信里,也對國防部項目爭議做出了直接回應,表示今後不會讓 AI 涉及武器化的應用,但並未「一刀切」,和政府、軍方劃清界限。

作為 AI 界的帶頭大哥,Google 並未對多如牛毛的 AI 應用領域一一作出指引,但這麼多年經歷了這麼多「坑」之後,這本「谷11條」所體現出的智慧,也許會對所有關心 AI 道德問題的人有很大的幫助。

下面,硅星人就帶大家來捋一捋「谷11條」背後的思路。

Google 眼中「好 AI」的標準

首先,設計產品之初,價值觀就要正。

Google AI(原 Google Research)研究院克里斯汀·羅伯森曾向硅星人闡釋,公司研發 AI 的領導思想是:按照對社會有益的原則進行設計,創造世界最棒的產品,讓這些產品實現商業化,在競爭中保持領先,同時,讓這些產品為世界做出貢獻。

Google 一向強調不作惡 (don』t be evil) 的價值觀,但它從來不是一家慈善機構。和所有科技公司一樣,它需要靠好產品賺錢,只不過,在對「好」產品的定義上,Google 和許多公司明顯不同。

「谷11條」 一上來就告訴員工,AI 產品一要對社會有益,二不能加重現實社會已有的問題:

1 要對社會有益

… 當我們思考 AI 潛在的應用場景時,我們將會把一系列社會和經濟因素考慮進內,在那些整體收益遠遠超過可預見風險和弊端的領域,進行推進。

2 要避免製造或加強不平等的偏見

AI 演算法和數據集可以反映、加強或減少不平等的偏見 … 我們將努力避免人們受到不公正的影響,尤其是與種族、民族、性別、國籍、收入、性取向、殘疾以及政治或宗教信仰等敏感特徵相關的人群。

確保方向正確後,接下來 Google 要保證自己的產品是業界最棒的。準則的第三到七條列出了好產品需要滿足的標準。字裡行間繼續體現著以人為本的理念。

3 要保證安全性

4 要對人負責 … 我們的 AI 產品將易於接受合適的人類指導和控制

5 要結合隱私設計原則

6 要維持科學卓越的高規格

7 要可以用於符合原則的使用場景

仔細閱讀這些準則,你甚至可以找到對應的具體產品。

比如準則中 Google 提到,「AI 加強了我們理解大規模內容含義的能力,我們將努力利用 AI 提供高質量和準確的信息」。這說的不就是最近上線的新版 Google News 嘛。

此外可以看到,在這些對產品標準的要求中,Google 還加入了對最近科技界激辯的話題的思考:比如數據隱私,比如 AI 發展對人類本身可能帶來的威脅。

對國防部合作風波的回應

「谷11條」的結構是「七要四絕不」。

舉了七個目標後,Google 提出了四個絕對不碰的領域。首先:

我們不會將 AI 應用於:

1 帶來或可能帶來傷害的技術

2 武器或其他旨在給人們造成傷害的技術

做出這段表述的背景:今年 3 月時,有媒體曝光 Google 的一份內部文件,顯示該公司參加了五角大樓的無人機計劃 Project Maven,幫助開發應用於無人機的 AI 系統。

與此同時,又有媒體曝出 Google 在內部行為準則里刪掉了有三處「 不作惡」 的文案。

和恨不得公司再壞一點的 Facebook 不同,大批 Google 員工對這個事實感到憤怒不滿。內網激烈的討論後,超過三千名員工聯名上書 CEO,要求退出項目。

最終,公司向員工和外界妥協,宣布 2019 年國防部合同到期後不再與續約。

正是這件事,推動了「谷11條」的誕生。據報道,Google 創始人拉里 佩奇、謝爾蓋 布林、CEO 皮柴和其他高管一起花了數月,最終制定了這版新的 AI 準則

不過,在這兩條表述里,Google 並沒有表達以後完全跟政府及國防部門徹底交割。

在強大的合作關係面前,Google 是糾結的,而這並沒有錯誤。比如在雲計算上,國防軍事是個潛力巨大的領域。Google 的競爭對手亞馬遜、微軟都在積極競標國防部的雲計算及存儲業務,Google 不可能因噎廢食。

不過既然做了決定就要承擔後果,Google 的糾結之後肯定還會引發新的爭議和討論,Google 只好表示準則會根據公司新的理解而不斷改進。

自己不作惡,也不讓別人作惡

更具體來說,堅決不允許別人利用自己的技術作惡,這是不能跨過的底線。

四絕不的後兩條:

AI 不會用於:

3 收集或使用信息用於監控並違反國際規範的科技

4 技術的目的違反了廣泛接受的國際法與人權原則的科技

從這兩個條款可以明顯看到,「谷11條」再次穩固了不作惡三個字的地位,而且還更進了一步:不僅自己不作惡,還要防止別人利用 Google 的技術作惡。

這在上面第七條的 AI 目標中也有體現:

許多技術同時擁有很多用途。我們會努力進行識別,限制可能有害或被濫用的應用。我們會評估以下因素:

首要目的和用途……以及與有害的用途有多接近

本質和獨特性:我們的技術是普世的還是有獨特應用場景的

規模:這項技術的使用是否會帶來重大影響

Google 在其中參與的性質:我們是在提供普通的工具,還是為用戶做集成的工具,還是在開發定製解決方案

Google 希望借保證自己的 AI 技術不被濫用,這麼做勢必意味著跟更多可能得到的利益說再見。一個直接影響可能是 Google 重返某些市場的難度會變得更大。

但沒有人會因為 Google 堅持它的真誠和正義而怪罪它。有些事情必須做出取捨。

博客文章中,皮柴再次提到 2004 年 Google 上市時提到的兩個原則:「讓世界變得更好」,和「不作惡」:

我們當時就表明了我們要用更長遠目光看問題的願望,即使這意味著需要作出短期的犧牲。我們當時這樣說,我們現在還是這樣相信。

Google 的準則體現著一家已經 20 歲高齡的新技術公司,對可能是未來最關鍵技術,和道德的思考。它給出了一個寬泛,但又方向明確的指引,讓一些事情不再停留在想法和概念。

這本「谷11條」,或許也能推動其他公司,扔掉「技術中立」的保護傘,更誠實地參與到這個話題的討論中。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 pingwest中文網 的精彩文章:

還原:4 年,魅族沉淪記
核彈教父勢不可擋:英偉達發布8萬核桌面機,售價一度150萬美元…

TAG:pingwest中文網 |