當前位置:
首頁 > 新聞 > 斯坦福研究稱可通過AI識別性取向 準確率最高達91%

斯坦福研究稱可通過AI識別性取向 準確率最高達91%

近日,斯坦福大學發表的一篇新論文中指出:計算機演算法可以擁有比人類更為敏銳的識別性取向的「同性戀雷達」。然而此項研究成果引發了一系列關於性取向的生物決定因素、人臉識別技術和軟體侵犯人類隱私等問題的爭議。

研究發現,男女同性戀傾向於具有「非典型性別特徵」,也就是說男同性戀通常趨向於女性化,而女同性戀反之亦然。此外,研究人員發現男同性戀通常擁有比直男更窄的下巴、更長的鼻子以及更大的前額,而女同性戀會擁有更大的下巴和更小的前額。

左側為異性戀面部照片聚合形成的圖像,右側為同性戀。圖片來源:TechCrunch

論文還指出,研究結果為「性取向源於出生前受某些激素影響」這一觀點提供了強有力的支持,即性取向是「天生的」,而非後天自我選擇的結果。而機器對於女性性取向識別成功率較低的現象則證明女性對於性取向更加靈活。

這篇發表在《人格與社會心理學期刊》上的論文名為《深度神經網路能比人類更準確地通過面部照片判斷性取向》。作者Michal Kosinski與Yilun Wang利用深度神經網路從超過3.5萬張美國交友網站上的男女圖像中提取特徵,利用大量數據讓計算機學會了識別人們的性取向。

隨後的實驗成果顯示:計算機演算法僅憑一張照片區分直男與同性戀的準確率高達81%,對女性的性取向判斷準確率為71%。而人類對性取向的敏銳程度就差得多:男女同性戀的判斷準確率分別僅為61%和54%。如果可以看到同一人的五張照片,那麼計算機對男女性取向的判斷準確率還將進一步提高至91%和83%。

研究人員在論文中得出結論稱:面部表情實際上包含著許多人腦沒有攝取到的性取向信息。

值得注意的是,此項研究的局限性十分明顯:有色人種,跨性別者和雙性戀都沒有被納入考量。

此外,研究人員警告稱,存儲在社交網路和政府資料庫中的數十億公共數據將有可能在未獲得本人許可的情況下被用來進行性取向識別。夫妻一方可以藉此調查自己是否被騙婚,青少年會用這種演算法來識別自己或同齡人。而在同性戀不合法的國家,這種演算法更有可能造成危害他人安全的結果。

面對這些爭議,研究人員表示,相關技術已經存在,公開結果的目的是為了政府和公司更加慎重地考慮,並制定法規加以約束。

作者寫道:「我們相信對隱私的侵犯已不可避免。但保障同性戀和其他少數群體安全的關鍵不在於隱私權,而在於人權,以及社會與政府的容忍程度。一個更為安全和友好的後隱私世界應當被那些受過良好教育的人所主導,他們不會包容那些沒有包容心的行為。」

多倫多大學心理學副教授Nick Rule表示:「這當然是令人不安的,它就像任何新工具一樣,如果被錯誤地使用,就會造成危險。如果我們開始以外表來判定人的好壞並作出一些傷害他人的事,那可真是太糟糕了。」

不過Rule肯定了此項研究的價值:「研究人員證明了這種方法非常強大……現在我們明白我們確實需要得到一些保護。」

論文作者同時指出,AI(人工智慧)可以被用於探索麵部特徵與其他很多特性之間的聯繫,如政治觀點、心理狀況和個性。在去年的美國大選和英國脫歐公投時期,數據分析機構也使用了類似的分析方法來鎖定目標選民。

《衛報》分析指出,這一類型的研究意味著科幻電影《少數派報告》所描述的場景有望成真:在電影中,警察可以逮捕那些「僅僅是被預測有可能犯罪」的人。

電影《少數派報告》劇照

人臉識別科技公司Kairos的首席執行官Brian Brackeen肯定了斯坦福大學的研究。他認為人們需要對於隱私和機器學習新技術持有更加慎重的態度來阻止危險發生。他同時還表示:「如果有了足夠的數據,AI可以告訴你任何人的任何事。可是是對於社會來說,我們需要知道這些嗎?」


新聞報料

商務合作

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 界面新聞 的精彩文章:

「人種智商有別論」作者哈佛演講引抗議 組織者稱為言論自由
【天下奇聞】英國媽媽嫌老師太胖 竟不讓女兒上學
英管控大學高薪 年薪300萬元牛津校長:比球星差遠了
很難入睡?也許是你人格的鍋
明明照著菜譜做的,怎麼跟想的不一樣呢

TAG:界面新聞 |