當前位置:
首頁 > 最新 > 噓!別生氣!AI可能正在偷偷記錄你的小情緒

噓!別生氣!AI可能正在偷偷記錄你的小情緒

人工智慧正在我們的生活中普及。投放社交媒體上的目標廣告、篩選求職簡歷、確定機票價格、通過語音識別控制中央空調、創造文化輸出或者規劃交通流量,AI正在人類生活中扮演著越來越重要的角色。

Elon Musk非常自信的表示,到2017年底,特斯拉汽車將會無需人力輸入,安全的實現橫跨美國的目標。充斥在我們生活中的AI社交型嬌妻人將可能會在未來十年內承擔更多的家庭護理任務。人們普遍認為到2050年,我們將會超越這些具體應用,並實現通用人工智慧(AGI)。當人工智慧發展到AGI這一奇點時,計算機將會在任意認知任務中超過人類的表現,而人機交互也將變得非常普遍。而在之後將會發生什麼就只能靠大家的幻想了。

良性的發展方向包括人類在身體中嵌入計算機,幫助更快的處理數據。AI的「神經網路」將會成為我們大腦外部的一種皮質,通過與電子設備的連接,讓我們受益於電子設備的速度和效率。相比於如今只能稱為「原始機器人」的電子起搏器和鈦合金關節,這將是機械設備的重大升級。

而對AI未來的擔心主要側重於其軍事化和防禦性質的應用,其中完全自動化武器是最具爭議的。這樣的武器系統可以無需實時的人力輸入根據演算法進行搜索、識別、選擇和摧毀目標,並從過去的安全威脅中學習。這樣的武器系統概念是非常可怕的,也讓AI主導的人類未來社會看上去更像是終結者中的科幻反烏托邦。


無意中的歧視

也許對人類造成實質威脅還有待考證,但是有關AI的道德問題已經引起了關注。就在上月,機器學習演算法被爆出悄悄地主動向亞馬遜購物者推薦炸彈組件,此外還在就業廣告中延續了性別不平等,並通過社交媒體傳播仇恨信息。導致這些問題的大部分原因在於機器學習所使用的數據質量和性質。由於接觸了人類所提供的偏見數據,從而產生了有缺陷的結論。這引起了人們對日常生活中演算法管理和更廣泛的AI機制中存在的倫理學問題的關注。

最近,一位具有心理健康困難史的美國年輕男子因為填寫了一份基於演算法生成的問卷被拒絕了工作申請。他認為自己受到了不公正的對待,但是由於該公司並不了解演算法的原理,且目前的就業法中沒有涉及機器決策透明度的要求,所以他無法對此進行上訴。類似的情況還有中國出台的演算法主導的「社會信用」方案,在去年的試點中,該系統通過收集一個人的社交媒體數據(包括其朋友的發帖內容)來評估一個人的「公民」質量,並根據評估結果決定是否給予貸款。


急需AI道德規範和法律

我們迫切需要針對AI運行和監管的明確道德系統,尤其是當在收購或財力上具有優勢的政府和企業會通過演算法獲取額外利益的時候。以色列歷史學家Yuval Harari提出了新的「電車哲學問題」對無人駕駛汽車進行了道德探討。而來自MIT的道德機器則嘗試收集基於人力輸入的數據對道德進行機器化。

更廣泛的思考

但是倫理並不是唯一圍繞AI和人類福祉所提出問題的領域。AI已經對人類產生了重要的情緒影響。儘管如此,情緒仍然是被忽略的AI研究課題。在過去的兩年,Web of Science學術資料庫中有關AI的同行評議文章增加了3542篇。其中只有43篇,佔總體1.2%,含有「情緒」這個辭彙。而實際上描述AI情緒研究則更少。當我們在考慮智能機器中的認知架構時,我么似乎更應該解決情緒問題。然而,99%的AI研究似乎都不認同這一觀點。


AI知道我們感受的方式

當我們談論AI的情緒時,我們所指的是幾個不同的東西。第一是機器識別我們的情緒狀態並相應採取行動的能力。情感計算領域正在飛速的發展中,我們可以通過能夠測量皮膚流電響應、腦電波、面部表情和其他情緒數據來源的複雜生物感測器進行情感計算。這些感測器在大部分時間內都能夠給出正確的結果。

而這項技術的應用是很廣泛的。公司可以根據你對電影的情緒反應通過你的智能手機實時向你銷售相關的產品。政治家可能會製作一些信息,以保證吸引特定情緒的觀眾。社交機器人可能會根據用戶反應在醫療或護理環境中更好的協助弱勢群體,AI數字助理可以選擇一首歌來幫助改善你的心情。市場力量將會推動這一領域的發展,拓展其領域範圍,重新定義其能力。


但是我們是如何看待AI的呢?

AI情緒中的第二個領域是人類對AI的情緒反應。人類對待AI的態度和對待大多數技術一樣,將個性投射到無生命的物體上,將情緒投射到我們所使用的技術上。

這就是著名的媒介等同理論(Media Equation)。我們雖然意識到機器是無生命的物體,但是我們會對它們做出情緒反應。這可能源於我們基本的人類需求,即我們需要有社會關聯和情感聯繫,如果失去了這些則會變得沮喪。正是這種需求讓我們和人類、動物,甚至是機器產生聯繫。感官體驗是這種聯繫驅動及其獎勵機制的重要組成部分,也是快樂的來源。

虛假的社會化

當我們的環境中缺乏聯繫和歸屬的體驗時,我們會通過電視、電影、音樂、書籍、遊戲等任何可以提供社交需求的媒介獲取。這被稱為社會代理假說(Social Surrogacy Hypothesis),也適用於人工智慧。

即使是無實體的AI也會存在基本的人類情緒:來自數字助理自發稱讚的快樂;對拒絕貸款申請演算法的憤怒;對無人駕駛汽車的擔心;對AI拒絕驗證你的Twitter賬戶的傷心。


我們是機器人

對具有實體的AI,我們的情緒反應更加強烈。機器人越想人類,我們的情緒反應越強烈。我們會感到對人形機器人有聯繫,會對它們表達積極的情緒,當我們看到它們受到傷害時,也會感到同情和不舒服。當它們拒絕我們時,我們甚至會感到難過。

有趣的是,如果機器人是幾乎完全人性化時,我們的情緒反應反而會下降,甚至會拒絕它們。這被稱為「恐怖谷」理論(uncanny valley theory),也正是這一點讓我們在能夠使機器人完全人性化之前會把機器人設計的偏離人性化一點。


柔軟的觸感

AI正在利用觸覺技術來拓展人與機器人之間的情感紐帶。

社會化和情緒化機器人有許多潛在的應用。比如照顧老年人來提高自主生活能力,幫助感到孤獨的人,協助患有痴呆、自閉症或殘疾的人。基於觸感的感官體驗正在被越來越多的融入到諸如VR等沉浸式技術中。

在其他領域,人工智慧可能會接管日常的家務或者諸如教學等任務。在對超過750名5-18歲的韓國未成年人的調查中發現,大多數人對AI機器人教學沒有問題,但是很多人對AI教師的情緒角色表示了擔心。機器人是否能夠向學生提供情緒諮詢和建議?不過,有超過40%的人贊成使用AI機器人代替人類教師。


我們有錯過什麼嗎?

正如哈佛心理學家Steven Pinker所說,這種合成的體驗會讓我們欺騙自己。我們本身沒有獲得體驗,但是我們欺騙自己的大腦相信我們感覺更好。但是無論如何也比不上真實的體驗。

顯然,人們可以通過與AI的互動來體驗真正的情緒。但是我們是否會在充斥著AI機器人的世界中錯過什麼東西?

這一情形讓人聯想到Harry Harlow著名的實驗,在這個實驗中,失去父母的猴子會選擇具有柔軟皮毛但沒有產奶的觸覺「母親」,而不是可以產奶但只有冷絲網的「母親」。我們用技術來滿足自己的需求,是不是也正好說明了我們缺少與現實世界的感官體驗?也許在未來,我們對奢飾品的定義會發生變化,我們會把手工生產的食物和真實的感官體驗當作奢飾品。

但是目前99%的AI研究並不關注情緒,這一事實表明,如果情緒在AI中發揮更大的作用,要麼是事後的想法,要麼是因為情緒數據會讓人工智慧設備及其僱主擁有更多的權力和金錢。

當我們朝著人體與計算機融合的奇點邁進時,我們不應該忽視我們的大腦對情緒紐帶的需求。

所以我們應該關注一下AI的情緒問題,誰知道會產生什麼效果呢?


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 獵雲網 的精彩文章:

早報:摩拜回應合併傳聞稱不考慮ofo不予置評;攜程稱媒體年坑100億文章純屬造謠;超力嗨體育獲300萬天使融資
谷歌的營銷套路:蘋果做啥我做啥,然後靠AI技術「吊打」
33億美元高價賣身,Jet成為了沃爾瑪阻擊亞馬遜的「最強武器」
英特爾前CEO保羅-歐德寧去世,享年66歲
中國共享單車如何影響世界?英國人說汽油危機都緩解了

TAG:獵雲網 |