AI為什麼需要更多的情商?
情商(EQ)——能夠理解別人的感受或想法,主要是運用肢體語言和語調——對於有些人來說也是困難的。當人類誤解他們的同胞時,他們可能會失去友誼、關係、工作。機器人的賭注更高——如果它們的製造者不能教他們同情,它們可能就沒有存在的必要。
企業發展公司Allerin的創始人兼首席執行官Naveen Joshi 最近寫了篇文章討論如何用EQ改進AI,使之被社會廣泛接受的問題。「即使是最先進的人工智慧技術,也缺乏一些必要的因素,如像人類一樣的情商和背景信息。」他寫道。
像Alexa這樣的機器人實際上並不了解我們。它們不知道我們的感受,不了解我們在想什麼。他們無法理解那些不言而喻的手勢和皺眉頭。他們甚至缺乏基本的同情心,基本上只是在談一些瑣事和閑聊。
然而目前我們對它的質疑並不明顯。當我們和Alexa談話時,我們傾向於將機器人視為另一個人,一個住在小揚聲器中的人,與它談話,聽它講笑話。部分原因是我們未對對機器人的EQ有太多想法。對於AI來說,有一個「恐怖谷」,面對這個尷尬的差距,我們的頭腦彌補了一組演算法之間的差異和人性化的東西。我們在精神上彌合了差距,但隨著機器人的發展,它們變得更加智慧,表現出更多的情感時,我們就會開始質疑他們——我們將意識到他們不是人類。
「恐怖谷」是用於描述當我們看到人類頭像時會發生什麼的術語。很難彌合這個差距——頭像看起來更人性化,我們開始填補空白的程度更多,直到在某種程度上我們意識到這不是人類。那時事情就會分崩離析。
想想最新的「最終幻想」電影《最終幻想十五》。起初,數字演員看起來像人類是多麼令人驚異。然後有輕微的偏差,或面部抽搐,或看起來不正常的眯眼。我從來沒有看完過電影,因為最終我不再相信這是真實的,我停止關心這些數字演員。
這將發生在機器人身上。首先,我們將不再將其視為數字創作,並開始在情感連接上與它們聯繫。但是它們始終是程序上的子程序。在某些時候,我們將停止彌合我們自己和Alexa或Cortana之間的差距。這時事情將變得有趣,因為bot開發人員必須弄清楚如何解決大量的了解用戶的問題。你生病了嗎?不爽?最近與男朋友分手了?累?如果機器人不知道如何「閱讀」,我們不會認為機器人是有價值的。「Alexa,天氣怎麼樣?」現在它工作得很好,但很快我們就會想要更多。
由於「恐怖谷效應」,隨著機器人越來越像人類,我們的不信任度也會越來越高,這是AI開發人員面臨的最大的挑戰。人類不能相信沒有表現出同情心的事物。這是不可能的。它違背了我們的本性,我們的合作、友誼或任何關係都是建立在信任和同情的關係上的。我們不會越來越多地依賴機器人,除非它試圖理解我們並且證明它「知道」我們。
最糟糕的部分?我們不知道何時會發生這種分裂。現在,機器人是無意識的奴才,是我們購買的物品。Google Home是一個助手,告訴我們NFL的分數。但是當我們想要一個機器人在一輛自行車上接過孩子的時候呢?當機器人代替我們面試的時候呢?當我們想要一個關心老人的機器人?人工智慧應更好地準備應對複雜的挑戰,而不僅僅是報告天氣。
作者:JOHN BRANDON
譯者:lighting
點擊展開全文
※街頭藝術進入增強現實,WallaMe可讓用戶隨時隨地塗鴉
※VR體驗《遇見倫勃朗》讓你穿越歷史與畫家互動,見證《夜巡》創作
※構建可供探索的環境,Atlas Obscura VR創新旅行體驗
※在虛擬現實中享受愛情,SDC將推VR約會應用MySugardaddy VR
※VR短片《SONAR》增加空間音頻,改編版在白日夢發布
TAG:數字敘事 |