當前位置:
首頁 > 最新 > AI可以判斷你是不是同性戀,當真這麼神奇?

AI可以判斷你是不是同性戀,當真這麼神奇?

撰稿|走狗

編輯 |圖圖

平日里,若是某人說你和誰是好基友,大家也都是哈哈一笑,完全當作玩笑話。畢竟真正的同性戀,在現實中也比較罕見。

當然,這個所謂的罕見,是筆者的主觀判斷,因為在筆者身邊,確實很難見到同性取向的人,也說明筆者的生活環境,大體上還是遵循大自然異性相吸的法則。

不過,若是AI說你是同性戀,你和誰是好基友,會不會瞬間讓整個場面安靜了下來,詭怪的氣氛中散發出尷尬的味道?

然後你強顏一笑,故作冷靜道:「呵呵,機器作怪,何須當真?」

所有人朝你瞟了一個白眼,因為他們都知道,AI已經離上天入地的神通不遠了,判斷你的性取向,不過是易如反掌的事。

此話如何說起?且聽筆者慢慢道來。

前不久,斯坦福大學兩名研究人員開發了一個神經網路,可以通過研究一個面部圖像來檢測一個人的性取向。研究人員訓練了超過35,000張面部圖像的神經網路,在同性戀和異性戀之間平均分配。

該演算法的追蹤,涉及了遺傳或激素相關的特徵,關鍵在於影響性取向的產前激素理論(PHT)。

這個理論具體是講,在子宮中,對性分化負責的主要是雄性激素,也是以後生活中同性戀取向的主要驅動力。研究還指出,這些特定的雄性激素,會在一定程度上影響面部的關鍵特徵,這意味著某些面部特徵可能與性取向有關。

那麼問題來了。人類雖然聰明,但在細節的分辨與識別上,是遠遠比不上機器的。

所以,你看一個人,很難看出他的性取向,除非結合他的衣著、言語、社交,以及對他平日生活狀態的了解,才能做出比較準確的判斷。

但AI不一樣,它可以從細微的特徵上,給出你的性取向的判斷。

那麼,這種判斷是基於何種因素?

研究發現,男女同性戀傾向於具有「非典型性別特徵」,也就是說男同性戀通常趨向於女性化,而女同性戀反之亦然。

此外,研究人員發現男同性戀,通常擁有比直男更窄的下巴、更長的鼻子以及更大的前額,而女同性戀會擁有更大的下巴和更小的前額。

圖片來源於「TechCrunch」

隨機選擇一對圖像,一名同性戀男子和一名異性戀男子,機器挑選受試者的性取向準確率高達80%。而當與同一人的五張圖像同時呈現對比時,精確度高達91%。

不過,對於女性而言,預測準確率相對較低,一幅圖像準確率為71%,有5幅圖像,則上升至83%。

是不是有種不寒而慄的感覺?

AI識別人類性取向,不但涉及到隱私問題,更加涉及倫理問題。

畢竟在很多情況下,基因是天生的,但性格與性取向,卻可以在後天培養。無論現實中你性取向怎樣,但在AI的眼中,你的性取向它早已給出答案,也可能答案是錯誤的,但你無從申辯。

此外,更讓人細思極恐的是,我們有大量的照片與隱私數據,存儲在社交網路和政府資料庫中,是否有可能在未獲得本人許可的情況下,被用來進行性取向識別?

《紐約客》曾有這樣一期封面:機器人已經成為地球主角,人類只能蹲在地上,接受機器人的施捨。

這副圖片蘊藏一個隱喻,每一項新技術的誕生,最終會走向哪裡,幾乎很難預料。正如愛因斯坦當初發現質能方程,也未能預料到核彈降臨日本的毀滅性災難。

以往的機械與機器的發明創造,更多是人體力的延伸,但AI不一樣,AI雖說實質上也是機器的一種,但它卻干著腦力的活,它可以被視為人腦力的延伸。

體力的延伸,人類能夠控制它的發展方向,以及發展的極限。當然,技術與材料也天然限制了體力機器的未來。正如再強大的起重機,也不可能在地球上把地球吊起來。

而腦力的延伸卻大不相同,很多時候,這是一種無法看到,甚至難以預料的發展。

在未來,就算我們掌握了所有的編程與代碼,但AI不斷自我學習與增強的過程,又如何能夠控制?尤其是一些科研狂人,他們會利用AI做出怎樣瘋狂的事,也讓人難以預知。

很多人類,都有一種深海恐懼症。

深海中的無盡的黑暗、未知的生物、巨大的空洞、永恆的寧靜,都讓人產生一種即將被吞噬的恐懼。

GIF

AI在未來也必將是一片深海。筆者可以斷言,未來的人類肯定會患上AI恐懼症。

因為在筆者看來,AI已經在無所不能的路上一去不復返,尤其是有大量AI狂人的瘋狂推動,而散布在網路上大量的隱私數據,完全可以成為他們試驗的素材。

實際上,根據面容來判斷一個人的性取向,其中演算法是基於社會原有生物本質主義(biological essentialism),這是一種深信人的性取向等本質是根植於人身體的理論。

畢竟,一個AI工具通過數據積累和演算法模型,可以通過照片判斷一個人的性取向,系統準確率高達91%,這種試驗性數據是否存在偏見,尚未可知。

在筆者看來,人或許有很多是天生的,但生活環境的塑造,起到了巨大的作用。先天與後天,究竟哪個力量大些,很難說得清,但先天必然不能佔據絕對主導地位。

今年年初,巴斯大學和普林斯頓大學的計算機科學家,就曾用類似IAT(內隱聯想測驗)的聯想類測試,來檢測演算法的潛在傾向性,發現即使演算法也會對種族和性別帶有偏見。甚至,連Google 翻譯也難逃偏見。

演算法「發現」並「學習」了社會約定俗成的偏見。當在特定語言環境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會將中性詞轉而翻譯為「他」或「她」。

由此可見,AI的學習還是會受到人和社會的影響,甚至把不太友好的一面也學了過去。

如今,AI其實還基本局限於完成指定任務,而有時許多實際應用內容,並不是非此即彼,在許多抉擇中,人類選擇依然存在道德困境,若將決定權交給AI演算法,那對人類社會而言,必將產生很多倫理道德的問題,甚至還會引發許多矛盾。

舉個栗子:如果一個號稱識別出軌率高達90%的AI,跟你對象說你出軌了,基於的理論是你的身體諸多特徵,符合高出軌率的演算法模型。那麼,你該如何跟你對象解釋呢?


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 安在 的精彩文章:

膽兒真壯!居然把伺服器安全產品開源了,那還怎麼賺錢?

TAG:安在 |