當前位置:
首頁 > 趣味 > 內心的秘密寫在臉上,科學家用面部識別預測性取向和犯罪傾向

內心的秘密寫在臉上,科學家用面部識別預測性取向和犯罪傾向

By 超神經

中國的一句老話「相由心生」,最近通過斯坦福的科學家用人臉識別技術得到了驗證。

他們的研究中,提出了一個大膽的猜測:人的性取向和犯罪傾向,都可以通過人臉的面部識別分析出來。聽起來很不可思議,當然,有人好奇,希望儘快得到實踐應用,也有人大力抨擊,認為這是一種極大地歧視。

面部識別,最廣泛的用途是在安防、監控、金融風控等領域,主要用作實人認證。而現在,面部識別在斯坦福大學課題組的帶領下找到了新的方向,他們希望通過面部識別,研究人的性取向和犯罪傾向。

之所以研究性取向,也是因為社會的進步讓邊緣文化得到發展,進一步融合進主流文化並得到更多人的接納。不同多數人的性別認知越來越被接受,不同的性取向也得到了社會的認同,甚至法律上的認同。

尤其是社交類型的軟體,不僅有很多專為少數性向人群設計的 app,包括 Facebook 早在 2014 年就開始注重性別和性向類型的區分,將在用戶的性別選項中,將原本的二項選擇增添到了 58 項之多,包括 Androgyne (兩性人), Male to Female(男變女), Transgender Female(跨性女), Two-spirit(兩魂人等)。

Facebook 註冊頁面的性別選項曾高達 71 個(左圖)

Google I/O 2019 註冊頁面的性別選項有 5 個和自定義(右圖)

而現在的網站上,已經見不到這些選項,除了男性和女性之外,還有一個自定義選項,意味著你可以在填上任意的性別。

但如果有人告訴你,通過你的照片就會知道你有多大幾率有可能變彎,你會是什麼反應?再如果,通過照片推論你有不小的犯罪幾率呢?

當 AI 化身 Gaydar

斯坦福大學的團隊在 2017 年發布了一篇論文《Deep neural networks are more accurate than humans at detecting sexual orientation from facial images》(翻譯:深度神經網路比人預測圖像中人物的性取向更準確》),第一次將 AI ,面部圖像,同性戀這三者關聯了起來。

通過多張圖像合成的性取向面孔圖像和臉部特徵

通過從社交網站攝取的面部照片,利用深度神經網路( DNN )學習了一些特徵之後,再通過一些機器學習的方法,達到分辨性取向的目的。

他們最後的結果是 AI 模型的識別準確率要優於人類,機器演算法可以通過面部的一些特徵來分辨出人物的性取向。

在不到一年的時間,一位叫 John Leuner 的碩士生將這個研究復現和改進,他的論文《A Replication Study: Machine Learning Models Are Capable of Predicting Sexual Orientation From Facial Images》(翻譯:《研究復現:機器學習模型可以預測部分人臉圖像的性取向》,

基本上使用了類似的方法,但同時做出了一些改進,使用了不同的的數據集,增加了對人物圖片的抗干擾能力等等。

這項研究得到了什麼

斯坦福大學的方法用了兩個模型,一個基於深度神經網路( DNN ),一個基於面部形態學( FM ),而 John 加入了模糊照片分類器的一個模型。

他的論文中,通過線上相親網站的 20910 張照片組成的數據集,訓練並確定了三個模型的預測能力。

由於模型使用了不同國家,種族的數據,所以適用性變得更好了。此外,針對模糊的照片也做了研究,對高度模糊的照片,AI 能從面部和背景的綜合信息進行預測。

而且即使人物刻意化妝、戴眼鏡、面部毛髮遮擋、變換面部拍照角度時,測試發現模型預測的結果不會發生變化。 也就是說即使一個直男,扮成了女裝大佬的樣子, DNN 也能看出你其實是個直男。

不同裝扮扮和角度的同一者測試照片

總體來說, Leuner 的研究,是對斯坦福那項研究的重複和改進,同樣的都用數據證明了,面部信息能夠被用來判斷一個人的性取向問題 。

憑什麼用 AI 公開他人的秘密?

那麼這樣一項研究,AI 優於人類,在一些方面會促進人的認知和定位,或者幫助法律避免悲劇,那為什麼會引起軒然大波呢?

一方面是涉及到同性戀這個敏感話題,在斯坦福論文發布在arXiv 的時候,就引起了軒然大波,有同性戀群體更是不遺餘力的抵抗,認為收到了來自技術的侵害。

在 2016 年,就有類似的一個研究觸發了廣泛的社會討論。

上海交通大學的兩位研究者提交在 arXiv 上的一篇論文,《Automated Inference on Criminality using Face Images》,而研究的內容則是人臉識別判斷罪犯。

研究中所用的幾張樣本照片,上排是犯案者

用面部信息,看出一個人的性取向,犯罪信息,就足以讓人們感到擔憂,假如繼續再進一步,推廣到預測情緒、智商甚至是政治立場,會不會最終導致嚴重的偏見和歧視?

比如在同性戀不合法的地區,一旦技術被用來執法,就會變成血腥的故事。而通過預知一個人的犯罪傾向,提前將其抓捕,也是科幻片里出現過的場景。

有人拿它們和「相面術」相比

而另一個很多人質疑和詬病的地方,就是這類研究是不是以 AI 的方式行「偽科學」之實。

在一部分人眼裡,利用面部判斷人行為的方法,讓他們和相面術聯繫了起來,不過他們的研究用了更多的數據作為支撐,讓 AI 的預測看起來也更「科學」。

有趣的是,2017 年的那篇研究犯罪的論文,參考文獻中赫然列入了一本面相的書《神相全編》。

所以不乏有人質疑,這些研究,就算是數據上有很高的準確率,真的就揭示了二者的聯繫嗎?

研究中所關注的一些特徵

在斯坦福大學的研究論文發出的時候,就到了很多質疑的聲音,懷疑他們數據偏少,研究的結論卻過於篤定。而關於犯罪的預測,同樣如此。

國際隱私保護組織的 Richard Tynan 博士這麼說到,「作為一個個體,你不可能知道機器是怎麼對你做出判定的。

在小數據集上,演算法、人工智慧和機器學習可能會建立起專斷荒唐的相關性。這不是機器的錯,但把複雜系統運用在不合適的地方是危險的。」

技術不可怕,可怕的是偏見和歹念

我們不妨大膽假設,也許人們潛意識裡,並不是害怕 AI 發現了什麼,而是害怕有人會拿著 AI 分析的結果大做文章。

AI 處理問題的方式,依靠更多數據提升了自身的說服力。但不要忘了,訓練和設計 AI 的是本來就帶著偏見的人類。

而 AI 通過數據得出來的也不過是一些數字,那麼對於它的解讀,也時常會被帶著某種方式被加以利用。

普林斯頓大學信息技術做過的一項研究表明:機器學習和 AI 演算法,會不經意強化和擴大了社會上流傳的,或者用戶潛意識中的既定偏見。比如在很多場景下,會把「醫生」和「他」匹配在一起,而「護士」和「她」匹配在一起。

回到關於 AI 斷定同性戀的研究,如果預測的事物換了一種,比如某種疾病,那麼同樣的方法和類似的結論,也許就有很多現在反對的人會稱讚是漂亮的工作。

如果只是揭示了規律,本身沒什麼可怕的,但偏見和歹念被注入,技術越強,帶來的毀滅也就越大。

斯坦福的研究者在回應質疑的時候,在推特上有這樣一條回復:「如果你發現一項熱門的科技中隱含著威脅,你會怎麼做?是對此保密,還是研究它、讓同行評議它、並發出警告呢?」

AI 在病理學上的突破,

對圖片染色「以假亂真」

懶癌福音,

谷歌員工發明自動還書機器人

大幅提高天氣預測準確度,

微軟團隊登頂數據競賽

AI 百科

教程

數據集

商店

更多

http://hyper.ai

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 一刻talks 的精彩文章:

迪士尼樂園除了「官方黃牛」,還有哪些不為人知的套路?

TAG:一刻talks |