當前位置:
首頁 > 天下 > 人工智慧不學好偏見歧視?微軟新工具教那些AI如何「做人」!

人工智慧不學好偏見歧視?微軟新工具教那些AI如何「做人」!

人工智慧(AI)無疑是當今科技重要的發展方向,然而相關的演算法難免會存在社會層面的問題。由於所收集數據量不足和先天性認知等問題,人工智慧演算法很可能會反映出社會本身存在的偏見,和一些不公平的觀點。目前,微軟(Microsoft)公司已經在開發新工具,力圖解決這一問題。

從《麻省理工技術評論》的消息來看,微軟正在打造的工具能夠檢測並提醒人們注意那些根據種族或性別來判定事物的人工智慧演算法。

無疑,微軟也是一家有能力創造人工智慧的科技公司。他們正在加入谷歌(Google)和臉書(Facebook)的行列,創造工具來「抓捕」那些不合時宜的人工智慧。

不過,新演算法目前只能發現「偏見演算法」的存在並對目標問題進行標記。這意味著,那些會導致政策性偏見出現的程序如果沒能被發現,它們可能仍將被創建和使用著。

為了真正地創造公平而有利於每個人的AI,這需要人們在前端給予更多的關注。

相關企業和機構目前可以通過引入第三方審計的方式,來應對這一問題。第三方機構帶來的外部專家將審查他們的演算法,尋找代碼本身或者被輸入數據中存在的偏見情況。

《麻省理工技術評論》中提到的人工智慧審計想法在很多地方得到了關注,一些人工智慧公司已經開始聘請審計人員來查看他們的代碼。

當然這種做法也有一定的要求。所涉及的人工智慧不可以太過複雜,以便別人能夠進入該領域並發現問題所在。或者,審計人員需要精通相關代碼。對於較為高級複雜的系統,這種方法可能並不完全適合,成本較高。

另一種潛在的解決方法是對實際創建人工智慧的人員進行更好的培訓,以便他們能夠更好地發現自己的不成熟觀點和偏見,防止這些觀念被灌輸到人工智慧系統中,被演算法認定為事實。

這並不是說那些編碼人員正在編寫著某種種族主義機器。但是,畢竟每個人的思維中都或多或少地有一些潛在偏見,這些問題的積累必然會成為問題。而人類的科技將會幫助我們更好地理解自己的世界觀,不斷完善並從中受益。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 大狗說 的精彩文章:

2020年,俄羅斯將擁有20倍超音速滑翔導彈,不可戰勝!
中科院研究發現:亞洲人的主食大米,正變得越來越缺乏營養

TAG:大狗說 |