別再傳照片了,人工智慧知道你是否是同性戀
兩周前,斯坦福大學的一對研究人員提出了一個驚人的說法。
他們利用從一個約會網站上搜集到的成千上萬張照片,對一個面部識別系統進行了訓練,並稱僅僅通過觀察圖片就可以識別人的性取向。《經濟學人》雜誌(The Economist)首先對該事件進行了報道,其它出版物也很快跟進。諸如:「新人工智慧可以猜測你是同性戀還是異性戀」,「人工智慧可以分辨出你是不是同性戀,這很可怕。」等標題文章紛紛出現。
你可能已經猜到了,事情並沒有那麼簡單。(很明顯,只是基於這項工作,人工智慧無法從一張照片中直接判斷出一個人是直男還是同性戀。)不過,這項研究引發了人們對人工智慧的普遍擔憂:AI將為監測和防控開闢新途徑,尤其可能對被邊緣化的人造成傷害。該論文的作者之一,Michal Kosinski博士說,他的意圖是對人工智慧的危險發出警告。他警告說,很快面部識別不但能識別出某人的性取向,而且還會識別出他們的政治觀點、犯罪行為,甚至智商。
因為諸如此類的言論,一些人擔心我們正在重新喚起一種歷史上的舊觀念:僅從外貌可以直覺地知道一個人的性格。這種偽科學,面相學是19世紀和20世紀科學種族主義的燃料,它為人類的一些最壞的衝動提供了道德上的掩護,如妖魔化、譴責和滅絕同胞等行為。批評Kosinski工作的人指責他用二十一世紀的神經網路取代了十九世紀的卡尺,而教授本人則說他對自己的研究發現感到恐懼,並且樂意被證明是錯誤的。「這是一個有爭議的、令人不安的主題,也讓我們感到不安,」他告訴The Verge。
那麼,現在有了AI,偽科學是否有可能會披上AI的外衣重新潛入現實世界?有人說,機器只能比我們自己更多地了解我們。但是,如果我們訓練他們去執行我們的偏見並且這樣做的時候,難道不是讓已經被我們擯棄的舊觀念死而復活嗎?我們又該如何區別?
AI真的能識別性取向嗎?
首先,我們需要看看最近辯論的核心,由Kosinski和他的合著者王亦倫寫的(直譯: Yilun Wang)。他們研究的結果被報道得很糟糕,大量的炒作都來自於對系統準確性的錯誤描述。該文章指出:「只需一張單身者的人臉圖像,該軟體就能正確地分辨出性取向,且比率為男性81%,女性71%。」「當給系統提供5張個人照片的時候,識別比率就會上升。其中,男性比例為91%,女性為83%。」
從表面上看,這聽起來像「通過看照片,81%的時間AI可以來判斷一個男人是直男還是是同性戀。但這並不是數據的意義。當隨機照片被顯示時,AI識別的正確率並不是81%,因為它是對兩張圖片進行測試,一張是同性戀的圖像,另一張是直男的圖像。然後問哪個人更有可能是同性戀。它猜對了男性為81%和女性為71%,但是該測試的結構意味著它以50%的基準開始的,這是隨機猜測的結果。這與「說它識別出任何一個人的性取向為81%」的說法意義並不一樣。
就像馬里蘭大學社會學家菲利普·科恩(Philip Cohen)在博客文章中批評的那樣:「人們害怕這樣一種情形——你本來擁有自己的私生活且性取向不為人知,但你去機場或參加去一項運動活動時,電腦掃描你所在人群就確定了你是同性戀還是異性戀。不過,沒有多少證據表明這項技術能做到這一點。」
在文章結尾,Kosinski和王明確表示他們的系統上測試了1000張照片,而不是兩張照片。他們要求人工智慧在數據集里挑出誰最有可能是同性戀者,其中數據集里7%的照片主體是同性戀,這大致反映了美國人口中直男和同性戀的比例。當系統被要求選擇100個最有可能成為同性戀者的圖像時,系統在70個可能的匹配中只識別到了47個。其餘53個被錯誤地識別。當被要求確定前10人時,9人被正確識別。
如果你是一個試圖用這個系統來識別同性戀者的壞人,你將無法確定得到的答案是否正確。儘管,如果使用它識別足夠大的數據集時,得到的大多數猜測結果可能是正確的。這危險嗎?如果系統被用來鎖定同性戀者,那麼答案當然是。但其他研究表明,該計劃還有進一步的局限性。
計算機能真正看到人類看不到的什麼?
目前尚不清楚用於該面部識別系統的判斷因素是什麼。Kosinski和王的假設主要是識別性別結構上的差異:男同性戀面孔中的女性特徵和女同性戀面孔中的陽剛特徵。但是AI可能會被其他刺激因素所迷惑,比如照片中的人的面部表情。
這是特別相關的,因為研究中使用的圖像是從約會網站獲取的。正如奧伯林學院社會學教授格雷戈戈·馬森(Greggor Mattson)在博客中指出的那樣,這意味著這些圖像本身是有偏重的,因為它們被挑選出來是為了吸引特定的性取向的人。幾乎可以肯定的是,他們的圖像基本符合我們看待直男和同性戀的文化價值觀。並且為了進一步縮小適用範圍,所有的研究對象都是白人,不包括雙性戀或自我認同的跨性別者。如果一個直男在約會網站上選擇了最具男子氣概的「男性化」的照片,那麼,這說明他對社會對他的形象期望的思考,多過他下巴的形狀和性取向之間的聯繫的思考。
為了確保他們的系統只關注面部結構,Kosinski和王用了一種名為「VGG-Face」的軟體,該軟體將面部表情編碼成數字串,並被用於繪畫中來識別名人的肖像。他們寫道,這個程序可以讓他們「最小化瞬態特徵的作用」,比如燈光、姿勢和面部表情。
但研究人工智慧面部系統的研究人員湯姆·懷特(Tom White)說,「VGG-Face」實際上非常善於收集這些元素。懷特在Twitter上指出了這一點,並向The Verge解釋了他是如何測試該軟體的,並利用它成功地區分了諸如「中性」和「快樂」等表情,以及一些姿勢和背景顏色。
圖為一份來自文中的數據顯示了參與者的平均臉及他們在兩組中所識別的面部結構的不同
Kosinski在接受採訪時表示,他和王都明確表示面部毛髮和化妝可能是人工智慧決策的一個因素,但他認為面部結構是最重要的。「如果你看看VGG-Face的整體性能,就會知道它往往對瞬態面部特徵的重視程度很小」Kosinski說。「我們還提供證據證明非瞬時的面部特徵似乎預示著性傾向。」
問題是我們還不能確定。Kosinski和王還沒有公布他們創造的程序,也沒有公布他們用來訓練系統的照片。他們在其他圖片來源上測試自己的人工智慧,看看是否能識別出所有同性戀和異性戀的共同特徵,但這些測試是有限的,而且還來自一個有偏見的數據集——來自Facebook上的男性個人資料圖片,他們喜歡諸如「我愛同性戀」、「同性戀和神話」之類的頁面。
這些群體中的男性是否充當了所有男同性戀的代理人?可能不會,Kosinski說他的研究發現也可能是錯誤的。「需要進行更多的研究來驗證這一點,」他說。但是,如何完全消除選擇偏差來進行決定性的測試是很困難的。Kosinski告訴The Verge。「你不需要了解模型是如何工作的,以測試它是否正確。「然而,正是對演算法的不透明性的接受使得這種研究如此令人擔憂。」
如果AI不能顯示它是如何工作的,我們能相信它嗎?
人工智慧研究人員不能充分解釋為什麼他們的機器會做他們所做的事情。這是一個貫穿整個領域的挑戰,有時也被稱為「黑匣子」問題。由於用於訓練人工智慧的方法較為特殊,這些程序不能像普通軟體一樣顯示出他們的工作,儘管研究人員正在努力修正這一點。
同時,這也導致了各種各樣的問題。一個常見的問題是,性別歧視和種族主義偏見是從人類在訓練數據中獲取的,並由人工智慧複製。在Kosinski和王的研究中,「黑盒子」讓他們能夠做出一種特殊的科學飛躍。因為他們相信他們的系統主要是分析面部結構,他們說他們的研究表明面部結構預示著性取向。(「研究1a」顯示,[神經網路]提取的面部特徵可用於準確識別男性和女性的性取向。「)
專家稱這是一種誤導性的說法,並沒有得到最新科學的支持。研究性取向的倫敦國王學院的生物學學者卡
齊·拉赫曼(Qazi Rahman)說,可能有一個共同的原因導致了臉型和性取向 ——最可能的原因是子宮內激素的平衡 —— 但這並不意味著面部形狀可以預測性取向。「生物學比我們通常認為的更微妙,」他告訴The Verge。「這裡的問題是協會的力量。」
性取向主要來自生物學的觀點本身就是有爭議的。拉赫曼認為性取向主要是生物學上的,他讚揚了Kosinski和王的研究工作。 「這不是垃圾科學,」他說。 「更像是一種不被有些人喜歡的科學。」但是,當涉及到性取向的預測時,他說有一整套「非典型性別行為」需要考慮。 「對我來說,問題是這項研究忽略了這一點——同性戀的行為。」
存在同性戀基因嗎?或者是社會和文化都塑造了性取向?
將性取向的問題歸結到身體里一個單一的、可測量的因素上,這其實經歷了一段漫長而又不光彩的歷史。正如Matton在博客中寫的那樣「從19世紀對女同性戀生殖器官和男同性戀臀部進行研究,到20世紀後期研究稱已經發現了『同性戀基因』、『同性戀大腦』、『同性戀無名指』、『女同性戀耳朵』和『同性戀頭皮發。』」可以看出研究同性戀的方法層出不窮,也不甚光彩。所以,這項工作的影響是多方面的,最壞的情況是它成為壓迫的工具——給那些想要異化和迫害少數性群體的人提供一個「科學」的借口。
澳大利亞國立大學社會學講師珍妮·戴維斯(Jenny Davis)將其描述為一種生物本質主義的形式。這是一種信念,即性取向是根植於身體的。她說,這種方法是一把雙刃劍。一方面,它「做了一件有用的政治事情:把同性慾望的責任推到一邊。」但另一方面,它又強化了這種慾望的貶值地位,「把異性戀作為一種規範,把同性戀定為不那麼有價值的……一種疾病」。
而在這種情況下,我們認為Kosinski和王Wang的研究表明,AI動力的面部識別具有更黑暗的特徵,正如一些評論家說的那樣,它是由AI技術驅動的面相學回歸趨勢的一部分。
你的性格就像你臉上的鼻子一樣顯而易見
幾個世紀以來,人們一直認為臉是人物性格體現的關鍵。這一觀念起源於古希臘,且在19世紀尤其具有影響力。相面學的支持者認為,通過測量某人的額頭角度或鼻子形狀,可以判斷一個人是否誠實或犯罪。在中國,AI研究人員去年聲稱可以使用面部識別來做同樣的事情。
他們將研究成果以「使用面部圖像自動推斷犯罪行為」為標題進行了發表,結果在人工智慧社區引起了輕微
的嘩然。科學家們指出了這項研究的缺陷,並得出結論說,這項工作是在複製人類的偏見,即區分所謂的「刻薄」或「友善」的面孔。在一篇被廣泛分享的名為「面相學的新衣」的文章中,谷歌研究人員Blaise Agüera和兩位合著者寫道:我們應該期待「未來幾年有更多類似的研究……允許關於科學中立性和客觀性的錯誤主張的出現,以「洗去」人類的偏見和歧視。(谷歌拒絕讓Agüera y Arcas 對這篇報道發表評論。)
圖為Giambattista della Porta的一幅面相圖
(注維基百科:Giambattista della Porta是已故的義大利學者,研究人類心理學)
在文章中,Kosinski和王明確承認了面相學的危險,並指出這種做法「現在是普遍的,而且是正確的,被作為一種偽裝成科學的迷信和種族主義的混合體而被拒絕。」但是,他們繼續說,僅僅因為它是一個是「禁忌」的主題並不意味著它沒有事實根據。他們還說,由於人類能夠「低精度」讀取其他人的個性特徵,所以機器應該也能夠做到且更準確。
Kosinski說他研究的不是面相學。因為研究採用了嚴謹的科學方法,他的論文引用了大量的研究表明我們可以通過觀察來推斷出(不同的準確度)人的特徵。他說:「我受過教育,並相信臉部絕對不可能包含任何有關你私人特質的信息,因為面相學和顱相學只是偽科學,」他說。「但事實上,在沒有任何根據的情況下,人們聲稱他們在瞎編故事,這並不意味著這些東西是不真實的。」他同意麵相學不是科學,但他說,計算機可以揭示的基本概念中可能有真理。
對戴維斯(Davis)來說,這種態度來自於對人工智慧中立性和客觀性的、普遍而又錯誤的信念。 「人工智慧實際上並不是人為的,」她告訴The Verge。 「機器像人一樣學習。我們通過文化教育,吸收社會結構的規範,人工智慧也是如此。所以它會重新創造,放大,並繼續我們教導的軌跡,並將永遠反映現有的文化規範。」
我們已經創造了性別歧視和種族主義的演算法,這些文化偏見和面相學實際上只是同一個硬幣的兩面:兩者都依賴於糟糕的證據來判斷他人。中國研究人員的研究是一個極端的例子,但肯定不是唯一的例子。至少有一家經創業公司已積極地聲稱可以使用臉部識別來發現恐怖分子和戀童癖。此外,還有很多公司提供分析「情商」服務,並由人工智慧監控。
面對即將到來的
但是,回到Kosinski和王的報紙上那令人擔憂的標題所暗示的問題:人工智慧是否會被用來迫害少數性群體?
會是這個系統嗎?不。會是另一個嗎?也許吧。
Kosinski和王的工作並不是無效的,但其結果需要資格認證和進一步測試。否則的話,我們所了解的關於他們的系統的全部信息就是,它可以在一個特定的交友網站上,以可靠的方式識別出白種人自我認同的同性戀和異性戀之間的差異。因為,我們不知道它是否發現了所有同性戀和異性戀者的生理差異;我們也不知道它是否適用於更廣泛的照片;並且,這項研究並沒有說明性取向只能通過測量下巴的方式來推斷。與人工智慧聊天機器人已經破譯了一段好的對話藝術相比,它並沒有解碼人類的性行為。(它的作者也沒有提出這樣的說法。)
圖為創業公司Faception稱可以通過人臉來確定人們成為恐怖分子的可能性
Kosinski解釋說,這項研究是為了警告人們,但他同時承認,這是一個「不可避免的悖論」,你必須解釋你是如何做的。文中使用的所有工具都可供任何人查找和整理。深度學習教育網站Fast.ai的研究人員傑里米·霍華德(Jeremy Howard)總結道:「假設許多組織已經完成了類似的項目卻沒有在學術文獻中發表它們,這種假設很可能是合理的。」
我們已經提到有從事這項技術的創業公司,不難發現政府機構會使用該技術。在伊朗和沙烏地阿拉伯等國,同性戀仍然受到死刑的懲罰;在許多其他國家,同性戀意味著被國家追捕、監禁和折磨。最近有報道說車臣共和國(車臣共和國是俄羅斯聯邦的南部聯邦管區的其中一個共和國)的男同性戀者的集中營開始開放,那麼,如果有人決定自己製作AI同性戀雷達,並從俄羅斯的社交媒體上掃描個人資料,那該怎麼辦呢?
這種情況下,很明顯,像Kosinski和王這樣的系統的準確性並不是真正的重點。 如果人們認為AI可以用來確定性偏好,他們會使用它。考慮到這一點,我們比以往任何時候都更了解人造智能的局限性,在AI開始影響人們之前人們要嘗試消除危險。在我們教機器我們的偏見之前,我們需要先教好我們自己。
原創編譯:梓色揚光
來源:theverge
※人類控制身體的新篇章——人工培育良種嬰兒
※世界上最小無人機誕生,和蜻蜓一起飛翔!
※仿生眼腦植入物得到測試,為失明患者重寫人生
※通用電氣建立AI團隊,未來工作或需多重技能
※假肢總是冷冰冰?這次它們可以感知冷熱了
TAG:梓色揚光 |