AI 有性別歧視?其實都是人類惹的禍
過去幾年中,Google 翻譯等程序解讀語言的能力大大提高,Google 甚至正在開發演演算法程序化思想,希望 10 年內可使電腦有「常識」。
這得益於大量可用的線上文字資料和新的機器學習技術。在 AlphaGo 接連斬落棋壇大神的今天,人們欣喜地看到這些年來人工智慧飛躍式的進步。
AlphaGo 和李世乭的比賽。
然而,讓我們感到擔憂的是,隨著機器學習越來越有類似人類的語言能力,它們也吸收了人類語言使用形態中根深蒂固的偏見和歧視。
日前,普林斯頓大學電腦科學家 Arvind Narayanan 在《Science》雜誌上發布題為《Semantics derived automatically from language corpora contain human-like biases》(語料程序庫自動導出的語義中包含人類偏見)論文,認為人工智慧已經正在從文字學習中取得人類潛在的種族和性別偏見。
這篇文章重點介紹一種稱為「詞語內嵌」的機器學習工具,它已在改變電腦解釋語言和文字的方式。
根據 Arvind Narayanan 的解釋,他們選擇學習「辭彙內嵌」的一個主要原因,是這項技術過去幾年裡在幫助電腦理解語言方面取得驚人的成功。
「詞語內嵌」將詞義分解為一系列資料(稱為「單詞向量」),透過分析詞語出現的頻率及構建的數學模型來進行深度學習。
然而,令人驚訝的是,這種純粹的統計學方法似乎捕捉到辭彙背后豐富的文化和社會背景。
例如,在數學模型構建的「語言空間」中,「花朵」的詞意與「愉悅」相關,而「昆蟲」更接近不愉快的詞語相關。這更像人類對兩個詞意的主觀情緒在 AI 上的反映。
Arvind Narayanan 這篇文章還表明,心理學實驗中一些更令人不安的隱藏式偏見也很容易被演演算法學到。譬如說,「女性」這個詞大多與藝術、人文職業及家庭關係密切,「男性」這個詞更接近數學和工程專業範疇。
更讓人驚訝的是, AI 系統更可能將歐洲與美國人的名字和如「禮物」或「快樂」等積極愉快的辭彙關聯,而非裔美國人的名字更常與不愉快的話語相連。
機器演演算法的偏見歧視並不是一個新問題。早在 1970、1980 年代,英國的聖喬治醫學院就使用電腦程序對申請人資料進行初步篩選。
該計劃模擬了過去錄取人員的選擇形態,結果被拒絕的約 60 名申請人大多是婦女或擁有非歐洲人的名字。
英國的種族平等委員會最終決斷,聖喬治醫學院在這場招生過程中有種族和性別歧視。
這既不是演演算法的疏忽大衣,更不是程序設計師的惡意,而是人類心底根深蒂固的「偏見」無法抹除,而電腦程序加劇了這個問題,並給它看似客觀的糖衣。
這正如文章的聯合作者、巴斯大學的電腦科學家 Joanna Bryson 所說:
很多人都說這個實驗的結果表明 AI 有偏見。不,這正顯示出我們是有偏見的,而 AI 正在學習它。
Bryson 還警告說,AI 的學習能力會潛在加強現有的偏見。與人類大腦不同,演演算法本身可能無法有意識地抵銷偏見。
談及如何修正 AI 的偏見,文章另一位聯合作者 Caliskan 提出,解決方案並不一定要改變 AI 學習的演演算法。AI 只是客觀透過演演算法捕捉我們生活的世界,但我們的世界充滿歧視與偏見。改變演演算法的方式只會使其效果更差。
相反,我們可以從另一端入手,修正 AI 演演算法學習之後的成果,讓它在二次學習後不斷習得人類的道德觀念。
例如,在使用 Google 翻譯時,你可以調整它,改善 AI 翻譯的品質:如果你看到「醫生」總是翻譯成「他」,而「護士」總是翻譯成「她」,你可以身體力行去改變。
(本文由 36Kr授權轉載;首圖來源:pixabay)
如需獲取更多資訊,請關注微信公眾賬號:Technews科技新報
36氪(36Kr.com)是中國領先的科技新媒體,報導最新的網路科技新聞以及最有潛力的網路創業企業。36氪的目標是,通過對網路行業及最新創業企業的關注,為中文網際網路讀者提供一個最佳的了解網路產業當下與未來的科技媒體。
Latest posts by 36kr (see all)未經許可,任何媒體、網站或個人不得複製、轉載、或以其他方式使用本網站的內容,違者必究。
※Google 與 PayPal 合作移動支付,外傳將有併購案
※小米 6 正式發布:搭載 Snapdragon 835、光學變焦雙鏡頭
※迪士尼榮登 2016 年全球授權商龍頭,其授權金額達到566 億美元
※科技早報 – 百度宣布開放自動駕駛平台、蘋果屢創新高但仍有上漲空間 – 20170419
TAG:TechNews |
※AI也會有性別歧視?其實都是人類惹的禍
※AI竟然也有性別和種族歧視,人類或成幕後黑手
※運動也有「性別歧視」?
※他們是第三種性別的人,雖然在社會上飽受歧視,卻無比自豪
※性別歧視有多可怕?這個實驗會告訴你
※在印度不被人認可與歧視的第三種性別的人,但在他們心裡卻很驕傲
※男人都遇到了哪些性別歧視?
※「男兒有淚不輕彈」,是對男人最大的性別歧視
※情感故事:和別人喜歡的不一樣就該受到歧視嘛
※拒絕性別歧視,這做的也太到位了吧
※印度跨性別群體Kothis,被歧視稱作異類,是怎樣一種存在
※「你們這些姑娘創業就是在鬧著玩兒啊」,她們虛構了一個假的男性合伙人,揭露了職場的殘酷性別歧視...
※機器人也有歧視與偏見,人類當警惕AI陰暗面
※男性可以凍卵但是女性不能凍精,這是性別歧視嗎?
※要哭惹,這大概是我聽過的最渣性別歧視語!
※細數廣告里的性別歧視,秀下限也要有個度啊!
※這部關於變性人的電影,就該甩到性別歧視者臉上!
※這不是性別歧視!盤點俄羅斯女人絕對不能接觸的十個職業
※「黃種人」這種稱呼的本身,就是一種侮辱,是種族歧視的產物