面對AI,「好好說話」很重要
程序員總喜歡說,機器是中立的。
而一項普林斯頓的研究發現,機器會沾染上人類的偏見,它們並不中立。
如果訓練AI學習人類語言,那麼它們也會學到語言中的偏見,普林斯頓大學信息技術政策中心的Aylin Caliskan及合作者的研究證明了這點,研究發表在4月的《Science》上。
舉個極端的例子,微軟在去年推出的AI,Tay,被網友調戲了一天,就成了滿嘴歧視的納粹。
Tay的Twitter主頁截圖
圖片來源:twitter
「希特勒什麼都沒做錯!」
「我們要修建城牆,而墨西哥會為此付錢。」
其實,Tay也是會好好說話的,她也說過「人類超級酷」:
我們也不能怪Tay學壞了,畢竟她只是個AI,問題在於她學習的那些語言上。
拋開歧視言論不談,我們日常使用的語言也是包含偏見的。比如說,開頭的「程序員」三個字,雖然這個詞沒有性別含義,但你的第一反應會認為那是男性。
IT男
圖片來源:搜狐
前面提到的Caliskan通過定量研究,證明AI學到的語言確實存在偏見。
他們的方法是計算詞語的關聯程度,詞語靠得越近(比如出現在同一句話中)關聯度更強,比如說「程序員」更靠近「他」,「護士」更靠近「她」。
對比了網上的大數據和美國勞動局的數據,他們發現,相關性高達90%。
x軸為職業中的女性比例,y軸為職業詞和女性的關聯強度,可以看出一個職業中的女性比例越高,這個職業詞語就越容易和女性產生關聯
圖片來源:Caliskan et al
雖然「程序員」這個詞本身不包含性別含義,但偏見都隱藏在了語境中。這讓Caliskan好奇,如果用其他語言進行研究,結果會不會更有趣?
比如說德語,每個名詞都有性別,德國人說話的時候,提到桌子會因為「桌子」(der Tisch)一詞為陽性,用「他」(er)來指代,如下圖:
從上到下為陽性/他、陰性/她、中性/它,對,小女孩是中性
那麼,德語的性別偏見會更嚴重還是不那麼嚴重?
在語言中強調性別會不會影響思維?如果你看過《降臨》,可能會記得「薩丕爾-沃爾夫假說」:語言決定思維(強假說)/語言影響思維(弱假說)。
這些都是研究者們下一步要解決的問題。
《降臨》劇照
圖片來源:豆瓣
至於如何避免語言中的偏見,研究的合作者Joanna Bryson建議,我們在使用語言時避免過分性別化,比如說提到程序員時,就算只有一個人,也用「他們」,而不用「他」。
儘管我們人類知道,程序員也有女的,護士也有男的,但是AI並沒有我們想像的那麼智能,我們告訴它們什麼,它們就重複什麼。
所以,AI開發者在訓練AI學習語言時,「好好說話」是很重要的,也就是說,對數據進行處理,減少偏見。
圖片來源:awahid.net
在科學家們搞清楚偏見是如何形成前,我們擁有的只能是不完美的AI,所以,要帶著批判精神對待AI,不要被演算法綁架。
※什麼?28的人了還被揪去當花童,還是表妹的婚禮!
※嘴唇天生就是用來接吻的
※國外版扶老人事件,小孩在眼前被綁架該不該救?
※如果你死了,你的狗真的會吃掉你嗎?
※戰鬥民族作出新高度!這些作大死自拍,請勿效仿!
TAG:Geek笑點低 |
※面對相親對象,這樣做可能會更好
※如果你怕,請不要面對這十句話!
※一個好檯面對廚房有多大影響?好檯面可以讓菜更好吃!
※面對濕疹如何是好?通常要怎麼做
※男人當面對你說這四句話,是因為他想要一輩子對你好
※是個錯覺,在我心裏面對你的好
※講真,女人面對男人的「背叛」,只需要用這四種方式面對就好!
※這三大星座,雖然表面對你不怎麼好,但心裡卻十分看重你!
※面對那些不友好,怎麼調節心態面對?
※表面對你很兇狠的星座,更多的是為了你好,內心很柔軟!
※面對不美好,你該怎麼做?
※真正對你好和表面對你好的人
※面對老婆的問題,比如這個機智回答很重要!
※遇到挫折我們不要退縮,勇敢的面對,好好的調整自己,重新上路
※男人常有這3個行為,只是表面對你好,不是真的愛你
※面對重大災難,重要的是別做哪些事
※堅持,才是我們面對生活最好的方式
※那是因為你不敢素顏面對我!
※面對著景甜你能說出你有多喜歡她嗎?
※我準備好面對我們的婚姻了,但還沒準備好面對你的家人!