當前位置:
首頁 > 最新 > 斯坦福大學「人工智慧相面師」相面看性取向,正確率高達91%

斯坦福大學「人工智慧相面師」相面看性取向,正確率高達91%

導語:人工智慧可以讓人類更準確地認識自己。但陷阱是,我們太過迷戀數據。

今天,斯坦福大學發布了一項研究結果,為人類長久的、關於性取向問題的爭論,提供了有意義的洞見。這項研究分析了超過35000個面部圖像後,搭建了一套可以高精度判斷一個人性取向的演算法。

研究人員首先從交友網站的公開信息中收集了14776人的35326張照片,想在照片中提取面部特徵。從臉型、嘴型、鼻型、眉形到面部的毛髮,這些特徵全部被提取並量化。

之後,研究人員用深度神經網路(DNN)從中提取與性取向有關的特徵。在此,他們引入VGG-Face DNN模型,想通過面部表情、背景、光線、圖像屬性(亮度或對比度等)等因素來表示圖像中的人臉。

隨後,研究人員用預測模型、邏輯回歸等奇異值分解(SVD)等方法將圖像分類,判斷哪些圖像中的人為同性戀。

在沒有穿搭風格、人物動作等因素影響的情況下,就單一面部信息而言,分類器識別男女性取向的準確率分別達到了81%和71%。

研究人員還設計對照組讓人類判斷照片中人的性取向。實驗證明,人類對男女性取向識別準確率分別為61%和54%。對比看來,演算法的準確率明顯優於人類的直覺判斷。

如果通過5張以上照片讓系統識別人類性取向,則男女性取向準確率分別提高到91%和83%。

研究人員意外地發現,性取向與面部特徵存在些許關聯,一般情況下,男同有「女性化」特徵,女同有「男性化」特徵。比如,男同的下顎、鼻子和前額比直男大,與異性戀女性相比,女同的下顎更大,額頭更小。

有趣的是,研究人員認為,AI判斷女同性戀的準確率比判斷男同性戀低,恰恰支持了女性性取向流動性更大的認知。在機器看來,這可能是因為女性同性戀和異性戀之間的物理差異,不如男性同性戀和異性戀之間那麼大。

研究結果就是這樣,但是解讀的方式更有意思。一方面,我們可以認為,這個結果強烈支持了性取向源自於出生前就存在的某些特定激素;也就是說,有些人生來就是同性戀。另一方面,這些數據可能被用來支撐某些偏見,比如認為男性化長相明顯的人就應該表現得像個男人。

所以說,數據的危險就在於此。看似客觀的演算法讓我們相信可以以貌取人,而不是去尊重個體在更多其他方面的差異。AI能夠幫助人類更準確了解自身的同時,我會擔心,未來對同性戀這類話題的社會討論會變得更加以技術為本、而不是以人為本。

點擊展開全文

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧機器人聯盟 的精彩文章:

中國高鐵後年即將直通美國!震撼世界!
12個最可能被人工智慧取代的職位,你是否位列其中
商用服務機器人已處於爆發臨界點 2020年市場規模將達170億美元
昨夜,奧迪A8震驚了全球自動駕駛行業……

TAG:人工智慧機器人聯盟 |