當前位置:
首頁 > 科技 > 刷臉識別性取向,AI 有這麼可怕嗎?

刷臉識別性取向,AI 有這麼可怕嗎?


摘要:手握怎樣的數據,就能做出怎樣的 AI,如果數據片面,那麼研究的成果毫無疑問也是片面的。

「AI 已經能看出你藏起來的小秘密了!」

斯坦福大學的兩位研究員發布了一個研究報告,他們用數十萬張約會網站的照片來訓練一個面部識別系統,嘗試讓 AI 學會通過照片來判斷一個人是否是同性戀。

刷臉識別性取向,AI 有這麼可怕嗎?

(研究介紹頁)

權威外媒《經濟學人》第一個報道了這個研究,之後其他媒體也做了跟進的報道,諸如《可怕!AI 只要一張照片就能看出來你是不是同性戀》的標題很快散播在各家媒體網站上。

從多家外媒的報道來看,研究指出通過一張面部圖片,該系統就可以判斷出圖片上的人性向如何,判斷準確率男性 81%,女性 71%,如果同一人物的圖片素材達到 5 張,則準確率可以上升到男性 91%,女性 83%。

但著名科技媒體 The Verge 指出,其實這類報道出現了偏差,斯坦福大學研究員們的這個研究並不是像諸多文章中寫的那樣,只要一張照片就能看出來性取向,事實上,該研究是通過兩張圖片二選一的機制讓機器選出「更可能是同性戀」的圖片。這種對比判斷其實是從 50% 的隨機幾率開始計算的,因此與單純對一張圖的分析有著很大的區別。

除了報道的理解偏差以外,這項研究本身也遭到了不少批評聲。馬里蘭大學的社會學家 Philip Cohen 就表示,人們本來擁有一個私密的生活,性取向也沒有打算公之於眾,結果去了一趟機場或者運動場就被攝像頭掃描出來了,這樣的可能性會讓人們感到恐懼。

研究人員之一的 Michal Kosinski 也表示,他們的意圖就是警醒人們 AI 的危險性。他認為人工智慧和面部識別在不遠的將來不僅僅可以識別人的性取向,甚至還能檢測出人的政治立場、犯罪傾向,甚至智商。

The Verge 文章還認為,這種從人臉圖片判斷出性取向的科研成果其實是 19 世紀到 20 世紀的種族主義披上了神經網路、機器學習等計算機技術的外衣,對真正科學的反攻倒算。它像過去的偽科學、相面術一樣,給了某些人譴責、滅絕其他人類同胞的理由。

刷臉識別性取向,AI 有這麼可怕嗎?

(研究報告中的圖片)

從道德的角度看,這項研究確實有著很大的缺陷,但人們也無法否認,機器確實有著人類所沒有的分析能力,也許能夠發現人類所發現不了的規律和事實。

比如 AlphaGo 就可以從圍棋的規則和以往的經典棋局中「研究」出一套獨特的棋路,而不是簡單的模仿學習。

所以該研究指出的同性人群可能存在不同於異性戀人群的某些特徵,從人類的角度我們也不能一昧地從道義上反駁,相反,類似的研究成果可能會被性學專家重視,並加以深入研究。

但另一方面,從訓練演算法的數據來看,這項研究本身也存在著一定的問題。

數據源的問題。從婚戀交友網站獲取的數十萬張照片不能代表人類全體,這些人本身可能就存在著某些特徵,而這些特徵極有可能會影響到機器對性取向的判斷與學習。

刷臉識別性取向,AI 有這麼可怕嗎?

(國外某著名約會網站)

數據類型的問題。圖片就夠了嗎?判斷一個人的性取向這樣重要的特徵,簡單的靜態圖片就夠了嗎?機器也許可以發現人類無法發現的東西,但前提是數據的厚度、密度和廣度都必須達到一定的量。

在這一點上,研究者只給機器提供靜態的圖片作為學習的素材,不禁讓人懷疑他們的初衷究竟是出於科學地研究不同人群的潛在特徵,還是一些易於媒體傳播的商業意圖。

刷臉識別性取向,AI 有這麼可怕嗎?

(馬克·扎克伯格在哈佛校園裡做的 FaceMash)

畢竟,從網站上扒圖並不是什麼技術活,讓機器做選擇題的概念,也像極了十多年前哈佛某個宅男做的校園選美網站。

參考:The Verge

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 極客公園 的精彩文章:

燃油車被判死刑,特斯拉即將迎來的「帝國反擊戰」
有空手撕友商 魅藍為何不多花點時間停止「換殼」遊戲
收購 HTC 只是開始,越變越「硬」的 Google 兩周後會放出哪些大招?
HTC 今日起停牌,或將手機業務出售谷歌;新款 Apple Watch 數據問題蒸發蘋果幾百億市值 | 極客早知道

TAG:極客公園 |