當前位置:
首頁 > 最新 > 沈向洋:如何確保人工智慧不作惡?

沈向洋:如何確保人工智慧不作惡?

丹棱君有話說:面對 AI 發展可能產生的倫理和社會問題,微軟提出了 AI 發展的六大原則——公平、可靠和安全、隱私、保障、包容、透明和責任。為什麼 AI 發展要守原則?AI 的偏見從何而來?為什麼我們必須要理解 AI 做的任何決策,並確保由人類來監督這些決策?微軟全球執行副總裁沈向洋博士對六原則中涉及的 AI 的偏見、透明度、問責制三個問題進行了思考,讓我們一同領悟~

儘管人工智慧在近幾年取得了巨大的技術進步, 但其實依然還處在嬰兒期。正如一個年幼的孩子會模仿周圍人的行為,人工智慧也正在向人類學習。因此,作為人工智慧「父母」的人類,必須確保把反映和尊重我們周圍世界的價值觀和道德觀貫穿於人工智慧產品和服務之中。

這就是為什麼我們今天必須非常深入地思考人工智慧的道德問題。這些道德規範將塑造我們的未來。要負責任地建立人工智慧系統,就必須要首先教育我們自己。因此,我們出版了The Future Computed(《未來計算》)一書,來討論人工智慧在社會中的角色。書中闡述了我們認為應該指導人工智慧發展的六原則。我最近思考了其中涉及的三個特別重要的問題——偏見透明度問責制

首先,說說偏見。人工智慧系統中偏見的形成可能是由於人類自己甚至也沒有意識到的來自根深蒂固的文化影響。在訓練人工智慧系統的時候這些社會偏見就可能會導致對數據集在個人的性別、膚色和年齡假設。

即使對數據集使用無誤,要確保人工智慧系統能夠滿足每個人的需求,有時挑戰卻可能是數據不足,有時是模型和演算法不充分。

人工智慧反饋給我們很多社會中存在的偏見。但在多元化的社會中,膚色、口音等各種不同的特徵和差異也讓我們意識到,滿足所有人不同的需求是相當複雜的。儘管我們在不斷發展、從教訓中學習,我們依然有很長的路要走。

如何在編寫計算機程序時就不帶有和傳播這些偏見呢?這是一個比技術本身更大的問題。而我們不會放棄,直到找到確保對所有人都公平的方法。

除此之外,我們必須教導人工智慧回答「為什麼?」。人類的孩子會自然地問:「為什麼?」機器不會。透明——確保我們能夠理解並看到人工智慧所做的決定——這是一個以倫理為核心的被稱為「可解釋的人工智慧」的範疇,換句話說就是能回答「為什麼?」。

想像一下,醫生從人工智慧演算法中獲取的數據顯示你的家人得了癌症。你會立刻想知道為什麼。依據是什麼?你會希望醫生解釋是如何基於腫瘤大小和顏色的數據來得出這個結論的。並且你肯定還希望醫生能用一種你能明白的方式來解釋。

我們需要了解人工智慧是如何得出某個結論的,而不僅僅是一個在沒有上下文或解釋的情況下輸出數據和信息的「黑匣子」。人類需要知道這背後的原因。

最後,除了能夠自我解釋外,人工智慧還必須擔負責任。問責制意味著我們不僅要理解人工智慧為什麼會得出這樣的結論,而且要確保人類有直接責任來監督人工智慧做出的重要決策

維護問責制的一個簡單方法是創建的人工智慧系統不能完全自治。人工智慧只是提供了人類用於決策所需要的信息。例如,在發射火箭之前,需要有人按下紅色按鈕。在做出治療或手術的決定之前,需要醫生徵詢你的同意。複雜的洞察力由人工智慧提供,但最終的決策要由人類做出。這樣的人工智慧系統就可考慮應用在文化敏感性高、潛在後果影響重大的場境中。

在微軟,我們已經為這些挑戰做出了很長時間的努力。我們的研究人員建立了公平、負責,和透明的機器學習模型。今天,微軟研究院的科學家正在尋找各種辦法檢測和解決人工智慧的偏見。我們已經制定了一套關於人工智慧的指導性道德原則和一個名為 Aether 的開發和研究人工智慧與道德標準委員會。我們計劃未來推出的任何一款人工智慧產品都需要先通過 Aether 的審查。我們共同創立了人工智慧合作組織(Partnership on AI),以研究人工智慧如何幫助我們解決最具有挑戰性的問題。《未來計算》討論了指導我們人工智慧系統的核心原則。

在發展人工智慧的同時,我們有責任研究各種問題,使我們的技術為每個人創造利益和機會。我們所要建立的人工智慧系統必須能夠聽到所有人的聲音並能在這個多元的世界平等的認識所有的面孔。我們必須確保人工智慧的巨大力量伴隨著透明度和問責制,把人放在駕駛員的座位上。人工智慧帶有很大的可能性,我們還有很多工作要做。

後台入駐微軟小冰

如果你很萌,請跟她一決高下!


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 微軟丹棱街5號 的精彩文章:

ABB機器人與人類協作「親密無間」

TAG:微軟丹棱街5號 |