當前位置:
首頁 > 最新 > 突破 谷歌關於承擔人工智慧責任的探索

突破 谷歌關於承擔人工智慧責任的探索


不管人類現在是否已經做好了準備,但人工智慧正在改變世界。谷歌表示,我們已經看到人工智慧演算法應用於智能分類患者來減少醫生的工作量,通過準確的智能翻譯將記者與全球觀眾聯繫起來以及縮短顧客等待服務的時間。但即使我們嘗到了人工智慧的甜頭,但仍然存在對這項技術的質疑。

比如說,在受到公眾的反對後,谷歌最近就撤回了一項與軍方簽訂的關於運用人工智慧的合同。目前該公司更加重視承擔未來人工智慧的責任,六月,谷歌發布了人工智慧準則,並在本周開始討論顧客們對人工智慧最常見的疑問。這些疑問被分為了四個部分:不公平的偏見,可解釋性,團隊變遷和行事正確。

不公平的偏見:如何確保學習型機器模型一視同仁的對待所有用戶?

學習型機器模型只能保證和被輸入的數據保持一致,由於是人類來設定這些數據,因此輕微的偏見就能夠造成可測量的差異。谷歌方面解釋說,由於演算法的高速運算,在此過程中不公平的偏見就被放大了。「人們總認為,偏見是故意為之。人們自然而然地信任與他們有相同想法和信仰的人,而拒絕那些挑戰信條的人。 」

為了解決偏見問題,谷歌在其ML速成課程中創建了教育資源板塊,例如公平性推薦實踐和公平性模塊。該公司解釋說,它還注重有關文件和社區拓展。「我對我們採取的策略感到非常驕傲,並且我相信,我們正在發展的認知和工具對人工智慧的公平化思考非常有益。但事實上,僅憑一家公司是不可能解決如此複雜的問題,對偏見的抵抗需要集體的努力,還需要一系列利益相關者的共同決策,而我們只能在一旁傾聽。世界不斷的改變,我們則不斷的學習。」谷歌人工智慧雲 技術的產品管理經理Rajen Sheth在一篇文章中寫道。

谷歌人工智慧
谷歌人工智慧

可解釋性:如何使人工智慧更加透明,以便更好理解其建議?

為了信任人工智慧系統,我們需要知道它為什麼會做出決策。傳統軟體的邏輯可以通過檢查源代碼來了解,但這對神經網路是不可能實現的,該公司解釋說。Google稱,他們正在努力取得相關進展,而圖像分類正是能展示其透明性的領域。

「例如,在進行圖像分類的情況下,Google的人工智慧演示了一種人性化概念的工作方法,例如它可以量化直發和捲髮,並通過圖像確定這些普遍概念。簡單說來,它就是一個分類器,能夠根據對人類用戶最有意義的特徵來闡明其推理。例如,一個圖像被歸類為「斑馬」的部分原因在於高度體現的「條紋」特徵和更少的「圓點」特徵,」Sheth如是寫道。

團隊變遷:如何在確保今天的團隊能夠為了明天做好準備,並負責任地利用自動化的力量?

谷歌解釋說,我們與工作的關係正在發生變化,許多組織正努力尋找自動化的潛力和員工的價值之間的平衡。雖然並非所有工作都可以實現自動化,但仍需要對可以實現自動化的工作採取措施。谷歌為非營利性組織提供了5000萬美元的資金,通過提供培訓和教育,為潛在員工提供基於技能和經驗的理想工作機會,並為低收入工人提供支持。

做正確的事情:如何確保人工智慧用於正途?



最後一個方面是確保人工智慧能產生積極影響,現在對於人工智慧來說有一大片灰色區域,特別是在人工智慧在武器裝備領域的運用。「我們的客戶發現他們在武器裝備領域能夠找到一個適用的範圍,並希望我們能夠幫助他們思考人工智慧對他們來說意味著什麼。」Sheth寫道。

谷歌正在聯合客戶和產品團隊共同合作開發這些灰色地帶,它解釋說,為了讓該項目能夠從外人的角度來看,他們還吸收了社會學家Shannon Vallor作為團隊的一份子。「深層次的道德分析可以幫助我們了解視覺技術的哪些潛在用途是不恰當的,有害的或富有侵擾性的。道德決策實踐可以幫助我們更好地進行危機處理和複雜的價值權衡。比如說是優先考慮人工智慧應用中的透明化還是保護隱私度,這必定是一場此消彼長的爭奪。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 網易數碼 的精彩文章:

生或不生:城市中產的二胎生育賬

TAG:網易數碼 |