ICLR論文:讓AI學會恐懼
新智元推薦
來源:openreview
編輯整理:元子
【新智元導讀】微軟的研究人員正在給AI程序提供焦慮的粗略模擬,當計算機學習駕駛虛擬世界時,它會使用這些「恐懼」信號作為指導:如果一個人會感到害怕,計算機也可能會冥想,「我做錯了。」從而提升駕駛的安全性。
在迎合你的口味上,人工智慧可能比你父母都了解你。我們可以完全信賴人工智慧推薦的飯店、小說、電影。但當涉及到人身財產安全的場景時,人工智慧就顯得沒那麼值得信賴了。
人工智慧就是一個冷冰冰的系統,它沒有感情,不會高興、憤怒、悲傷或者恐懼。
機器有情緒,對人類有用嗎?
就目前人工智慧完成的各項任務來看,似乎也不太需要AI產生什麼感情?但如果我們把視線再往後移一點,就會發現人類其實需要與這些機器建立情感聯繫。並且可能在某些時候,會要求這些聯繫是互惠和真實的,就像人與人之間發生的那樣。
在和人類產生交互的場景中,比如聊天機器人,可以通過屏幕上的眼睛傳遞情感,以及合成的語音來表達情緒。當你表現的低落時,它會安慰你;當你表現的高興時,它會激勵你,你會被它感染。尤其是當被用來照顧人類的時候。你會覺得面對的不是一個冷冰冰的機器,而是能夠滿足內心情感的一個對象。
但這並不意味著人工智慧「具有情感」,只不過是人工智慧應用的產品經理,按照社會工程學玩的一些小伎倆。換句話說,機器不一定是移情,它們只需要看似移情。
情緒有助於人們決定什麼是重要的,並將複雜的信息整合到關鍵決策中。 因此,嘗試製造具有情感的機器人應該是有用的。
從人類物種的優勢來看,一些觀點認為,如果人工智慧系統有情感,他們就會富有同情心,也許會避免一些讓人擔心的事情發生,比如,自動駕駛撞到人。
人自主神經系統(ANS)由兩個分支組成。其中交感神經系統(SNS)用於應對潛在的危險情況,會針對眼前的威脅會減少或繞過意識做出快速決策,保護自己免受危險。
人類本能的會根據情緒做出不同的反應。雖然這些預期反應的主要作用是幫助人們做好行動準備,但同時也在我們對當前處境做出評估的時候,發揮作用。
感官刺激、生理反應和認知評估的組合,形成影響人類學習、計劃和決策。例如當我們心跳加速、手心出汗表示出內心的「恐懼」時,本能可能會希望採取行動,逃離當前處境。此時如果要打斷這種逃避心理,就需要有明確目標的外在動機。
開車,是非常典型的依賴於本能和外在動機並會出現重大的生理變化的例子。當我們飆車的時候可能會處於一種高度覺醒的狀態,比如在撞人之前會感受到極大的緊張從而開始迅速打輪避開。這種獎勵機制,顯然要優於基於「事後諸葛亮」形式的獎勵機制。
學會恐懼吧,AI!
微軟的研究人員正在試圖教會計算機什麼是「恐懼」。他們在ICLR上發表了一篇論文,提出一種強化學習框架。該框架結合了用於實現特定任務目標的獎勵函數,並且還最小化了與壓力相關的對環境的生理響應的訓練成本。
為了驗證具有外在和內在成分的這種獎勵函數是否在強化學習環境中有用,他們在駕駛任務中,訓練了一個加入了真實人類生理反應的模型。
在現實世界中應用RL的主要挑戰包括需要大量的訓練數據、以及相關的故障案例。例如,當在自動駕駛中使用RL時,獎勵通常是稀疏和傾斜的。不良行為可能導致災難性的後果,並且恢復成本非常昂貴。
RL的大部分工作都是有任務或目標依賴性的,而人類還會根據神經系統的反應做出決策。在強化學習智能體中加入這種機制,有助於降低樣本的複雜性。因為獎勵可以持續獲得,並且在任務結束之前就可以發出成功或失敗的信號。這些生理反應信號提供了警告機制,反過來又可以導致更安全的探索。
具體來說,就是考慮一個獎勵函數,包含兩個元素:外在動機r,用來獎勵特定任務的行為;內在本能r?,用來預測人類對交感神經系統的反饋,並獎勵導致放鬆和減緩焦慮的行為。
為簡單起見,本文中只考慮外在動機和本能的獎勵的線性組合。在形式上,考慮一個基於帶有獎勵r的DQN的RL框架,然後使用一個r和r?的凸組合
公式如下:
其中λ是加權參數,其提供了對任務完成(外在動機)和生理反應(本能)的期望之間的權衡。
在凸幾何領域,凸組合(英語:convex combination)指點的線性組合,要求所有係數都非負且和為1。 此處的「點」可以是仿射空間中的任何點,包括向量和標量。
那麼一個「會恐懼」的AI表現如何呢?
研究人員邀請了4位擁有7年駕齡的老司機,2男2女,並在他們的手指上安裝探測機,以記錄在駕駛模擬器中的脈搏振幅。並訓練了五個模型,每個參與者對應一個模型,另外一個統一面向全部參與者。
針對每種情況下,來自實驗記錄的前75%的幀作為訓練樣例,後25%作為測試數據。訓練分組中的數據是隨機的,並且使用了一個擁有128個實例的batch。
獎勵模型訓練期間的損失是均方誤差。每個模型訓練50個時期,之後所有模型的訓練均方根誤差(RMSE)損失小於0.1。然後在獨立測試集上計算RMSE,對於所有參與者,RMSE在0.10和0.19之間。
隨機預測的測試損失平均為0.210。在所有情況下,CNN模型損失顯著低於隨機預測損失(基於未配對的T檢驗)。
根據Science報道,該實驗仍然需要碰撞實驗來驗證模型的效果,但一個會恐懼的AI需要的碰撞數據,要比無所畏懼的AI少1/4。聽起來不錯。
人工智慧是否有可能產生類似人類的情緒?
那麼是否我們就可以認為人工智慧產生了像人類一樣,真正的恐懼呢?如果人工智慧可以產生恐懼,那麼是否可以產生其他情緒呢?
要回答這個問題,了解導致情緒和推理的原因非常重要。基本上情緒反應可能是由我們的感官捕獲的外部刺激引起的,或者是內部刺激引起的,這可能是體內平衡(身體自動調節系統)的改變或由於我們自己的認知。
處理刺激會在軀體狀態下產生非意識水平的變化,這被稱為情緒。如果情緒足夠強烈,那麼就會進行認知,社交,語境和周圍相關的評估,我們稱之為體驗情緒。
研究人類情緒的方法之一是研究人體內發生的無意識和不可控的變化。由於神經圖像和神經技術的最新進展,我們可以精確測量這些變化,然後進行研究。
但這其中面臨的一些困難,例如反向推理問題(沒有與每種情緒相關的特定體細胞模式),主體間變異(沒有兩個大腦是相同的),以及主體間變異(一個人的大腦變化和進化),導致我們還無法創建一種能夠複製人類情緒的演算法。
當前標準是使用校準刺激來進行研究,然後應用機器學習演算法搜索大腦活動中測量的情緒反應與EEG系統之間的相關性以及圖像的分類。隨後,計算機程序開發計算模型,用來表示特定人的大腦或神經系統如何對特定刺激(圖像)作出反應,從而引發特定情緒。
測量人類情緒模式的最科學方法是採用腦電圖,而通過面部特徵、皮膚電活動和語音識別也是很好的輔助手段。
但計算模型不是人類的大腦的復刻,而且人類的情緒也取決於對外部世界和內在自我的看法。人類通過感官獲得外部世界的感知,對內心的感知則依賴於體內平衡,以及認知。換句話說,計算機不會產生任何源於內省的情緒,因此,很難感受到愛或嫉妒。
一個億Ray Kurzweil預測計算機將在2029年通過圖靈的測試,表現出與人類無法區分的智能行為,其中就包括展現出自我意識以及豐富的情感。
十年後,準備迎接一個覺醒的人工智慧吧!
論文地址:
https://openreview.net/pdf?id=SyNvti09KQ
※ICLR 2019最佳論文揭曉!NLP深度學習、神經網路壓縮成焦點
※「GAN之父」跳槽蘋果,或是為無人車項目續命
TAG:新智元 |