當前位置:
首頁 > 知識 > 好壞一起學?人工智慧出現種族和性別偏見

好壞一起學?人工智慧出現種族和性別偏見


理論上人工智慧(AI)是不會自動超越人類對性別和種族產生偏見的。但是實際應用上卻相反,AI 已經出現了種族歧視和偏見。一項研究發現,計算機在學習人類語言的同時還吸收了人類文化中的一些根深蒂固的觀念,出現了相同的人類偏見。



好壞一起學?人工智慧出現種族和性別偏見


普林斯頓大學信息技術政策中心的計算機科學家們發現了這一問題,他們解釋,計算機 AI 出現種族歧視和偏見源於演算法偏差造成的。此前心理學家曾經做過一項稱為「隱性關聯測試(IAT)」,測試已揭示人類的偏見。而在新的研究中,AI 在學習人類語言的時候也把這種關聯詞學到其中,從而也出現像人一樣的性別種族偏見。


這項研究被刊登在 2017 年 4 月 14 日發表的《科學》雜誌上,為了揭示 AI 在語言學習中可能出現的偏見,研究團隊們根據 IAT 創建了新的統計檢測,重點關注一種名為「單詞嵌入」機器學習工具。結果發現這種學習演算法改變了計算機解讀語音和文本的方式,結果表明,演算法與 IAT 一樣擁有同樣的偏見,也就是把表示愉快的單詞與(美國和英國的)白人面孔聯繫起來。這將意味著演算法的存在也會讓隱性關聯出現在 AI 之中,從而也會帶來人類偏見。更嚴重的是,由於 AI 的學習速度驚人,這種人類偏見或許比現實社會中的還要嚴重。



好壞一起學?人工智慧出現種族和性別偏見


曾有研究表明,性別歧視和種族偏見將會對人類行為產生深遠的影響。研究從面試角度進行,對於非洲裔美國人,如果面試者的名字是歐洲裔美國人,即使簡歷內容相同,後者所能獲得的面試邀請將比前者多出 50%。而我們使用 AI,並不希望它給我們帶來任何行動上的麻煩。


所以除非採用明確的編程來解決這個問題,否則,這些演算法將讓 AI 與現實社會一樣,充斥著相同的社會偏見。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 威鋒網2007 的精彩文章:

惠普更新Pavilion x360系列 增加手寫筆支持和面部識別
一家義大利學校推新課程 用Swift寫安卓應用
7納米乃製造工藝的下一個里程碑 誰將勇奪第一?
很多人都不知道 但它是VR最重要的屬性之一
手機不是家電 TCL 攜手黑莓難談逆襲

TAG:威鋒網2007 |

您可能感興趣

驚爆!人工智慧:竟已學會種族和性別歧視
喵星人是一個神奇的種族,永遠與看不見的某種邪惡力量戰鬥著!
寵物小精靈曾經出現過的人造神奇寶貝,優勢極強的種族!
寵物好朋友的過去與現在 跨越種族與體型差距的好感情
寵物好朋友的過去與現在,跨越種族與體型差距的好感情
人工智慧會變壞?已經學會了種族歧視
細數神奇寶貝中那些跟人類一樣性感的人型精靈,種族不是問題!
被自己同種族的人歧視是一種怎樣的感覺?
人和人一言不合耍心機,動物間跨種族的恩愛讓人類慚愧
愛情不分性別和種族,看這兩個黑人小伙多和諧
《海賊王》最強的種族,出現不多但人人都很厲害!
又見種族優勢!這麼美麗一定不是男孩子
喵星人汪星人跨越種族的愛情,這才是真正的虐狗!
一隻長頸鹿與小象成了最好的朋友,這才是真正沒有種族界限的愛
動物界的奇葩好友組合,友情也可以跨越種族
那些奇葩的「跨種族」友情,你都見過幾種呢?
跨越種族的友誼,這份情是真的!
跨越種族的兄弟情,網友羨慕這種沒有明爭暗鬥的感情
海賊王目前為止出現過的稀有種族,多是實力強大於人類的怪胎!