你的性取向,其實全寫在臉上了
矽谷Live / 實地探訪 /熱點探秘/ 深度探討
我們已經聽過很多遍類似的說法,即「人工智慧代表未來科技的方向」。也許有人不太理解:為什麼非得是人工智慧,而不是別的技術呢?
這是因為人工智慧(Artificial Intelligence,縮寫為 AI)有著其它高科技無法比擬的優勢,就是對「類型的識別」和「不斷從過去的錯誤中學習提高的能力」。
唐太宗李世民曾言:以史為鑒,可以知興替。小探看到一個對這句話的翻譯,是「Who knows the history, who knows the future」,這句話同樣可以用來描述人工智慧。AI 不斷從已有的數據總結經驗,就能對未知的事情做出有把握的判斷。要是放在古代,可不就是神仙嗎?
事實上,現在的人工智慧,真的越來越全能了。它已經用於寫詩、創作歌曲、畫畫和診斷疾病。
最近,斯坦福大學兩位研究人員Yilun Wang 和 Michal Kosinski,創造出一套人工智慧系統,可以僅僅通過觀察一個人的照片,就判斷出此人的性傾向。
也就是說,你是直男還是同性戀,你喜歡女性還是男性,只要讓這個 AI 系統看一看照片就得出結論,而且準確率賊高!
這個研究結果已經寫成文章,名為《深度神經網路能比人類更準確地通過面部圖片檢測性取向》(Deep neural networks are more accurate than humans at detecting sexual orientation from facial images),並發明在《人格與社會心理學雜誌》期刊上。
下面咱們來看看,人工智慧是怎麼做到這一點的。
首先,研究團隊從美國約會網站的公開信息資料中提取出 35326 個面部圖片樣本,並將圖片輸入一個叫做 VGG-Face 的軟體中,該軟體會為每一個人臉圖分配一個編號。研究人員使用了每個人的一到五張照片,用戶則自己報告自己的性傾向和性行為。
然後,神經網路對這些圖片進行學習和提取特徵,然後把這些特徵輸入到一個旨在對性取向進行分類的邏輯回歸中。
邏輯回歸(Logistic Regression)是一種模型,和用於解決二分類(0 or 1)問題的機器學習方法,用於估計某種事物的可能性。在該模型對足夠多的數據進行「學習」後,就可以將結果應用於對新樣本的計算和判斷之中。
該研究得到一個整體性的結果,就是「面部其實包含了更多超出人類大腦能夠感知和翻譯的信息」,但是人工智慧有「能力」識別並總結出這些信息。
比如這個 AI 系統發現:同性戀男性和女性往往具有「性別非典型」特徵和表情。舉例說明,男同性戀者通常頜骨較窄,鼻子較長,前額較大,即看起來更偏清秀的「瓜子臉」;與直女相比,女同性戀者的下顎較大,前額較小,看起來更「俊朗」。
如圖所示:左邊是綜合樣本做出的異性戀者臉部圖,右邊則是同性戀者臉部圖,能明顯看出雙方的差異,右圖中的男女外形更為「中性」,基於性別的典型特徵沒有左邊明顯。
圖片來自論文截圖
此外,雖然女性一般會笑得更多,但女同性戀者的笑容比異性戀者少。而在修飾打扮方面,女同性戀者往往使用較少的眼妝,頭髮顏色更深,並且穿著暴露皮膚更少、衣領更高的衣服,較少女性化的修飾風格。
論文中總結道:「這項研究觀察到的女性氣質差異是很微妙的,散布在許多面部特徵上,只有在檢查許多面部圖像的平均值時才會明顯」。
此處來一張天海佑希的照片加以說明,怎樣算是「更偏中性」。女神雖然不是同性戀,但卻是「日本女生最想嫁的女人」。
當然還有我們的國民女神林青霞:
接下來大家一定會好奇:這個 AI 系統經過訓練後,看到新的人物照片就能給出他的性傾向判斷,那麼它的準確率高不高?
答案是非常高,尤其是和人類相比較。
如果只給出某個人的一張照片,系統對男女性傾向的判斷準確率分別為 81% 和 71%,與此對照,人類判斷的準確率只有 61% 和 54%。如果能獲得五張照片,那麼準確率會進一步提高到 91% 和 83%。
小探時常在微博上看到有人宣稱自己能一眼識別同性戀,也時不時看到網友點評某個男明星:「感覺他很有同性戀的氣質哎」,或者猜測某兩個男明星「他倆應該是真愛吧」......現在可好,不必再捕風捉影,只要把照片給這個人工智慧系統,你就能獲得更接近真相的判斷結果。
不過,除了拿來娛樂,這個系統還有什麼用處呢?
研究人員 Michal Kosinski 說,我們的研究結果為極富爭議的「產前激素理論」提供了強有力的支持。該理論認為:人體的某些激素會在胎兒性別分化中發揮作用,並且後期也會影響成人的性取向,甚至是決定性因素。具體來說,同性戀傾向的形成,是因為男性胎兒對產前雄激素的暴露不足,或女性胎兒對該激素的暴露過多。
同性戀的起源原因一直沒有定論,而這項研究,為「同性戀有生理基礎」這一判斷提供了證據。
另外,這項技術現在是用來判斷性傾向,但未來可以推廣應用到檢測情緒、智商、甚至是犯下某些罪行的傾向上。
但是,無論是現階段的研究結果,還是未來的延伸方向,這項研究都引發了極大的道德爭議。Kosinski 提到:「我們對這些結果感到非常不安,並花了很多時間考慮是否應該將它們公之於眾」。
他們最終公開了論文,隨後果然引發了軒然大波。
一部分人斥責此研究為「偽科學」,因為此研究的對象僅限於美國境內的白種人,並且不能判斷雙性戀者。
Kosinski 在一篇筆記中反駁道:雖然本研究並不能證明該結論同樣適用於其他種族,但我們發現該結論有適用的可能性。相同的生物學、進化和文化因素促進了同性戀者和異性戀者之間差異的形成,這些因素也很可能會影響其他種族。而識別不了雙性戀者,不會使得已有的結論失效。
但是更多的討論集中在:此項研究是否侵犯了他人的性取向隱私。
有人認為,如果你打算和一個人成為朋友或者建立更親密關係,那麼知曉對方的性取向是必要的。此前天涯論壇上有過關於「同妻」的熱帖,講述女性嫁給男同性戀後痛苦的婚姻生活。而《華盛頓郵報》上一名作者也寫文章說:「我曾經和一個男性第三次見面後,才知道他是打算跟我約會戀愛的」,並對自己沒能及時察覺這種浪漫走向而感到很尷尬。
更多人認為:一個人的性取嚮應該是他或她的隱私,任何人不能隨意知曉;在有些地方,如果性取向被公開,可能會帶來嚴重的後果。
有人給該項研究人員發來了憤怒的郵件:「你肯定知道在一些國家,同性戀是犯罪行為。所以我認為你是一個支持謀殺同性戀者的恐同混蛋。如果不是,請你銷毀所有跟這個話題有關的工作,否則,我希望能來個人殺了你,因為你的工作將使很多人受到折磨,甚至死亡。」
來自國際 LGBTI 聯合會的圖像,顯示了世界上同性戀不合法的國家和地區
Kosinski 對這些警告和威脅進行了回復,表明他們並沒有創建一個侵犯隱私的工具。此項研究工作其實內容有限,只研究了自稱是同性戀或者異性戀的人群;但他同時承認:令人不安的是,我們發現這些技術確實存在這樣的(侵犯隱私)風險。
如果這個人工智慧系統流傳開來,你的照片可能就會被未經允許拿去做測試。畢竟這個時代,想「人肉」出一個社交網路用戶都能辦到,獲取幾張照片並非難事。想一想:假如你到了結婚的年齡還沒有對象,然後有人拿你的照片去做測試,恰好得出你可能有同性性取向,那麼你就可能被流言蜚語纏上。
而小探還想延伸討論一點:我們說到,該研究方法其實能推廣到檢測情緒智商乃至犯罪傾向上,假如一個人在這些方面的信息,都能被人工智慧看照片加以判斷,這不是妥妥的「刻板印象」嗎?
人工智慧經過大量數據分析得到一些普適性結論,然後將結論應用於新的個體上,這種做法人類社會也很常見,但卻是不被倡導的。
普林斯頓大學信息技術和政策中心的一項研究發現:機器學習和 AI 演算法,會不經意強化和擴大了社會上流傳的,或者用戶潛意識中的既定偏見。以上文的性傾向研究為例,如果被廣泛使用,那麼人們就更容易把氣質柔和的男性或者外形俊朗的女性,和同性戀聯繫起來。
2013年,哈佛大學的一項研究也發現:非裔美國人的名字更容易和通緝令形成配對。如果這些數據進入人工智慧系統,那麼判斷新樣本時,一個非裔美國人的名字,顯然會更容易得到「犯罪傾向高」的預測結果。這已經涉嫌種族歧視。
但是人工智慧本身無罪,它就像一面鏡子,折射出人類社會真實的一面,這個真實一面在美國經過幾十年的洗禮,已經被藏起來了,大家只是嘴上不說而已,卻被數據再次揭露出來。如果我們不主動糾正「刻板印象」,那麼作為工具的人工智慧就會加固這些印象。歸根結底,主觀能動性在人類手中,人工智慧的進步,就如核武器一般,確實有可能被使用者拿來做壞事。
所以,人工智慧可以準確判斷你的性取向,你覺得,這是不是一件危險的事兒?
TAG:矽谷密探 |