當前位置:
首頁 > 新聞 > AI進入「深水區」,演算法是潛在偏見的最後解決方案?

AI進入「深水區」,演算法是潛在偏見的最後解決方案?

人工智慧本來並不存在偏見,它不會因為無法通過邏輯來解釋的理由而「想」某些東西是真的或假的。不幸的是,從創建演算法到解釋數據,機器學習中存在著人類的偏見,並且直到現在,幾乎沒有人試圖解決這個嚴重的問題。

本周二,外媒表示,由谷歌前首席技術官Varun Kacholia和Facebook前搜索引擎工程師Ashutosh Garg一起創立的AI公司,近日完成了2400萬美元的融資,投資方為Lightspeed Ventures和Foundation Capital。

這是一家旨在通過公開收集世界各地的勞動力的信息,解決僱傭、求職和晉陞的信息鴻溝與招聘歧視問題的初創公司,依託於自主研發的軟體收集處理招聘職位和應聘者的個人信息,人工智慧系統的處理減輕了信息不對稱的問題,匹配率比傳統招聘的提高了八倍,同時還節約了90%的篩選成本。

將大數據和演算法自動化決策應用於勞動力的篩選上無可厚非,龐大的數據基礎也可以提高決策的效率。但演算法的結果一定沒有偏差嗎?對此,Gary表示:「人們在招聘過程中也存在偏見,這是因為個體獲取的信息是有限的。而數據演算法為招聘人員提供了充足的信息和洞見,彌補了招聘人員可能因不了解某些技能或公司而產生的誤差,從而大幅增加合格候選人的數量。」

按照該公司的說法,產品的篩選機制將消除任何潛在的人類偏見,使其完成符合平等就業機會委員會的規定,年齡、性別、種族、宗教、殘疾等都不會成為演算法的參考標準。消除人們固有的成見,使人事決策變得不那麼「私人化」固然有可取之處,但前提是決策系統本身不受這些偏見的影響。對演算法的監督和修正,必然成為演算法運行的重中之重。

其實,對於人工智慧的偏見問題,在2017年的時候,一篇來自MIT Technology Review的文章就曾針對這一問題發表過相關評論。

「在機器學習和人工智慧發展的關鍵時刻,演算法偏見正逐漸成為一個重大的社會問題。如果演算法中潛在的偏見導致很重要的決策不被承認、不受控制,這可能會造成更嚴重的負面後果,尤其是對較貧窮的社區和少數群體。另外,最終的抗議可能會阻礙一項極其有用的技術的進步。」

而演算法專家凱文·斯拉文(Kevin Slavin)也曾在TED演講中表示,演算法「提煉自這個世界,來源於這個世界」,而現在則「開始塑造這個世界」。在演算法「塑造世界」的時代,我們應該思考的是:該如何突破演算法的瓶頸,賦予AI正向的價值。

1

演算法其實並不客觀

在我們的認知里,演算法最大的優勢是能夠根據用戶的「數字自我」實現智能化、精準化推薦。換句話說,演算法是人們在眾多的信息中尋找自己所需材料的快速通道,這個過程的實現也是基於人們對演算法的信任,即它具有「客觀性」。

不過,人們都忘了一點,AI演算法及其決策程序是由開發者塑造的。開發者寫入的代碼,使用的訓練數據以及對演算法進行應力測試的過程,都會影響演算法之後的選擇。這就意味著開發者的價值觀、偏見和人類缺陷都會反映在軟體上。

就像Facebook一直過不去的「劍橋分析醜聞」事件,利用先進的計算技術或者AI技術,試圖通過人們的隱私數據來操縱選舉,其實質,就是基本數據倫理的問題。每個公司都有屬於自己的一套演算法,因為他們都有不同的目的和價值觀。獲取信息時,我們覺得自己有權利去做選擇,但實際上,所有的選項都是演算法給出的既定選項。

這麼看來,演算法並不客觀。

2

在不客觀中學會自救

對演算法的質疑從其誕生起就一直存在,這種質疑反映出了人類的科學理性。在對演算法的設計提出繼續完善的同時,學會自救也是必要的,換句話說我們要學會自我保護。

就整體情況而言,演算法的最大問題,在於其不透明性。對於這個複雜的領域,專業的技術人員至今也未能全部摸清楚,搞明白,更不用說普通人了。所以,在不確定其設計理念或者運行邏輯的情況下,我們要做的是明確「演算法並不客觀」的理念,時刻對其限制表示警惕。

或許,這個時候,較為激進的思維模式更受歡迎,我們要學會提問,從提問中了解演算法發生的作用以及其最初的設計目的。比如,用傳統網頁方式瀏覽新聞,盡量不依靠智能搜索,雖然不一定能成功,但是還是要學著用自己的邏輯對抗演算法可能帶來的信息窄化,從而不被演算法限制。

3

如何減少人工智慧的偏見

至於如何減少人工智慧的偏見,微軟的研究員表示,最好的方式是從演算法訓練的數據開始審查,這是一種有效的方式。

數據分布本身有一定的偏見性。還是以美國大選為例,開發者手中的美國公民數據分布並不均衡,本地居民的數據多於移民者,富人多於窮人,這都是可能出現的情況。而數據的不均衡可能會使AI對社會的組成得出錯誤的結論,比如僅僅通過機器學習演算法分析,就得出「大多數美國人都是富有的白人」這個結論。

同樣的,也有研究表明,用於執法部門的AI 在檢測新聞中出現的罪犯照片時,結果會偏向黑人和拉丁美洲裔居民。此外,訓練數據中存在的偏見還有很多其他形式,只不過這些提到的更多一些。但是訓練數據只是審查方式的一種,通過「應力測驗」找出人類存在的偏見也同樣重要。

其實要讓AI變得沒有偏見,我們就要勇於去揭開演算法的「黑箱」。快手CEO宿華曾說,如果沒有很好的對社會的認知、對人文的思考,僅靠技術本身會很容易走偏,要用哲學的智慧將演算法、技術力量放大,從而避免表達幸福感的種種障礙。現在,我們要做的就是盡最大的努力去避免這些事情的發生。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧觀察 的精彩文章:

英偉達CEO黃仁勛看好區塊鏈,有望成為其業務第四大推動力
演算法加持AI晶元產業密集落地,AI社會未來已來?

TAG:人工智慧觀察 |