當前位置:
首頁 > 知識 > 你以為人工智慧看出了「直」或「彎」?它只是看出了你的偏見

你以為人工智慧看出了「直」或「彎」?它只是看出了你的偏見

近期,一份來自斯坦福大學的研究聲稱,他們的演算法可以通過對照片中人物的表情、動作和神態進行分析,推斷出人物的性取向。

但批評家卻認為,這只是披上了人工智慧外衣的偽科學和面相學。這些早已被西方科學世界摒棄的落後觀念,如今在新科技的掩飾下,重新抬頭。


研究的狹隘性

斯坦福的研究給出了一個看似很高的判斷精確度:當人工智慧對單張照片分析時,它猜對圖中男性性取向的幾率為 81%,而女性則為 71%。

當每位被分析人物的照片增加到 5 張時,演算法分析男性和女性的性取向正確率分別高達 91%和 83%。

但問題是,研究人員在測試時,是按兩人一組的形式並行測試,每組人物一「直」一「彎」,因此,即使人工智慧只是瞎蒙,都能有 50%的準確率。

而且,研究人員聲稱演算法的分析只專註於五官研究,而採用的 VGG-Face 軟體可最小化流動性因素,如打光、姿勢和表情等的干擾。

但人工智慧面部識別方向的研究人員 Tom White則表示,VGG-Face 捕抓那些流動性元素能力也很強。

(圖自

推特)

再者,這個被作為研究的基本數據(來自約會網站的圖片)本身就是有偏見的。

來自美國歐柏林大學的社會學教授 Greggor Mattson指出,由於這些照片是從約會網站中抓取的,意味著,這些照片本身就是由用戶專門精選,用來吸引特定性取向的人。

也就是說,這些照片都是用戶演繹出來,迎合他們認為社會對該性取向人群的定位,換言之——刻板印象。

雖然研究團隊也曾將演算法拿到研究以外的素材進行測試,但那些素材本身也是具有偏見的。畢竟,並不是所有男同志都會給「我彎我自豪」這類頁面點贊,而有點贊的人,也許也可能會趨於迎合特定刻板印象。

而他們所忽略的,是這個群體中所包含的,無數的無規律的非典型行為。

(圖自

Rebel Circle)

這個研究的主負責人 Kosinski 也表示,他的研究也可能是錯的,並表示「想要核實結果正確性,我們還得進行更多研究。」但如何才能確定研究不會帶有偏見呢?對此,Kosinski 的回應是:

想要測試和驗證一個結果的正確性,你並不需要理解(研究)模型的工作原理。

而 The Verge 則認為,正是這種研究中的不透明性,才會使得這些研究充滿了誤導性。


人工智慧也是人類帶著偏見製造的新工具

(圖自

the verge)

在歷史的長河上,人類將自身偏見投射於當時最好工具的例子一直都很多。

而將人類外表和人的個性和本質關聯的觀念,從古希臘時期就已經存在了,而到了 19 世紀,更是被工具賦予了「科學」的假象。

當時的面相學研究者認為,人類額頭形成的角度,或是人鼻子的形狀,都可作為判斷一個人是誠實還是有犯罪傾向的例證。雖然這些說法早已被判斷為偽科學,但如今卻在人工智慧時代「重獲新生」。

(圖自

the verge)

去年,來自上海交大的研究團隊還聲稱研發了一個辨識罪犯的神經網路系統,引來了人工智慧社區怒斥,三名來自 Google 的研究人員更是撰寫萬字長文批評這些研究者。

而一家名為Faception的新創企業也聲稱可以通過面容分析來識別恐怖分子。

(圖自

Faception)

但是,人工智慧就真的可以客觀地分析和研究這些數據嗎?澳大利亞國立大學的社會學講師 Jenny Davis 並不同意:

人工智慧並不是真的純「人工」。

機器學習的方式就和人類學習的方式一樣。我們從文化中提取並吸收社會結構的常態,而人工智慧也是這樣。

因此,它(人工智慧)也會再建、擴大並且延續我們人類為它們設下的道路,而這些道路,一直都將反映現存的社會常態。

而無論是根據面容來判斷一個人是否誠實,或是判斷他的性取向,這些演算法都是基於社會原有生物本質主義(biological essentialism),這是一種深信人的性取向等本質是根植於人身體的理論。

Davis 還指出,這些是「很有用」的理論,因為它可以從特定人群中提取出某種特質,並通過將該特質定義為「次要、劣勢」,來成為原本就有偏見的人群進行歧視的「正當理由」。

(圖自

好戲網)

今年年初,來自巴斯大學和普林斯頓大學的計算機科學家就曾用類似 IAT(內隱聯想測驗)的聯想類測試來檢測演算法的潛在傾向性,並發現即使演算法也會對種族和性別帶有偏見。

甚至,連 Google 翻譯也難逃偏見,演算法「發現」並「學習」了社會約定俗成的偏見。當在特定語言環境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會將中性詞轉而翻譯為「他」或「她」。

說到這裡,也許大家已經可以看出,Kosinski 和 Wang 研究(斯坦福研究)的精確性已經不是最重要的了。

如果有人想相信人工智慧可以判斷性別取向,(無論準確度如何)他們都會拿來用。

因此,更重要的,是我們要理解人工智慧的限制性,並在它造成危害之前中和它。

The Verge評論道。但最麻煩的,在於大多數時候,我們都沒法察覺到自身存在的偏見,那我們又怎樣可期望我們做出來的工具是絕對公正的呢?

題圖來自《斷背山》劇照

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 愛范兒 的精彩文章:

Beglitched:消消樂就能殺毒,這個遊戲里黑客有點萌#iOS#PC
小程序「分享圖」生成難?一招教你輕鬆解決
vivo X20 上手體驗:超大全面屏+面部識別,誠意十足
人工智慧專家 Max Tegmark:機器將會超越人類,但這未必是壞事

TAG:愛范兒 |