當前位置:
首頁 > 最新 > 科學家想這樣給人工智慧「去偏」……

科學家想這樣給人工智慧「去偏」……

人工智慧本來並不存在偏見,它不會因為無法通過邏輯來解釋的理由而「想」某些東西是真的或假的。不幸的是,從創建演算法到解釋數據,機器學習中存在著人類的偏見,並且直到現在,幾乎沒有人試圖解決這個嚴重的問題。

來自捷克和德國的科學家團隊最近進行了一項研究,以確定人類認知偏見對解釋用於創建機器學習輸出規則的影響。

該團隊的白皮書解釋了20種不同的認知偏見如何潛在地改變機器學習規則的開發,並提出了給它們「去偏」(debiasing)的方法。

偏見,諸如「確認偏見」(confirmation bias)(當一個人接受一個結果是因為它確認了一個先前的信念)或「可用性偏見」(availability bias)(比較重視與個體有關的信息,而不是同樣有價值的不太熟悉的信息)會使機器學習數據的解釋變得豪無意義。

當這些類型的人為錯誤成為人工智慧的一部分時——這意味著我們的偏見負責選擇一種訓練規則,這種訓練規則塑造了機器學習模型的創造——我們不是在創造人工智慧:我們只是混淆我們自己在黑盒子裡面有缺陷的觀察。

根據白皮書所述,這是全新的領域:

由於缺乏先前的研究,我們的研究將認知心理學中的一般結果轉移到機器學習領域。它需要通過專門針對機器學習領域的實證研究來取得成功。

隨著越來越多的人工智慧系統上線,個人責任感也在發生變化。很快,大多數車輛將由機器操作,大量的手術和醫療程序將由機器人進行。當悲劇發生時,人們會指責AI開發人員,甚至會把某些人當作替罪羊。

研究人員針對他們所研究的每種認知偏見提出了一種去偏旁解決方案。對於許多問題,解決方案與改變數據表示方式一樣簡單。例如,該團隊假設,將演算法的輸出更改為使用比自然數更多的比率可以大大減少誤解某些結果的可能性。

不幸的是,總的問題並沒有簡單的解決方法。大多數時候,我們不知道自己有偏見。我們相信自己非常聰明或直覺 ,或者我們只是不去想。機器學習程序員需要關注的不僅僅是20種不同的認知偏見。

即使演算法是完美的,輸出是不變的,我們的認知偏見也使得我們對數據的解釋不怎麼可靠。每個人都有這樣或那樣的偏見,這使得它關於如何影響數據解釋的研究很少。

該團隊介紹:

據我們所知,認知偏見尚未涉及機器學習結果的可解釋性討論。因此,我們發起了這項研究,研究結果發表在認知科學上,目的是為歸納規則學習演算法的變化以及結果傳播的方式提供心理基礎。我們的審查確定了20種認知偏見,啟發式和效應,當解釋歸納學習規則時可能引起系統性錯誤。

重要的是,全世界的研究人員都要依靠這項工作並發現避免機器學習中的認知偏見的方法。 否則AI只不過是人類偏見的放大器而已。糟糕的科學勢必造就更糟糕的機器人。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器人網 的精彩文章:

利用人工智慧幫助人類實現永生,就在2050年?
無法理解AI的恐懼,未來AI戰爭會終結人類?

TAG:機器人網 |