殺死那些沒法進行情感分析的物聯網應用!
作者:Leor Grebler
物聯網智庫 編譯發布
轉載請註明來源和出處
------【導讀】------
你的情緒,總有一款物聯網設備能懂。
近年來,人工智慧再次迎來新機遇,而這一次人工智慧的到來所帶來的最大的影響或許正是影響用戶的行為。眾所周知, Facebook、Google和Amazon等科技巨頭早就已經通過部署大量的科學技術來吸引用戶、留住用戶,以保持用戶在其網站上的點擊率、逗留時間等。如今,這些科技巨頭將其所掌握的一些人工智慧技術擴散到任何一個想要使用它的人。
現在,APP和Web開發人員可以輕易地利用上述這些技術來進行開發。但是,值得一提的是,讓人工智慧技術發揮最大影響力卻是安裝在物聯網設備上的應用。之所以物聯網設備會產生如此巨大的影響力,是因為我們更容易受到觸覺、顏色、聲音、氣味、溫度和運動等因素的影響,然而這些感覺無法在APP中直接複製。
也許,有些人會認為,企業會利用掌握的技術來操控人工智慧,藉以操縱眾多用戶。但是反過來想,如果企業對用戶足夠透明的話,那麼,企業就可以利用它們生產的物聯網設備以及掌握的人工智慧技術來幫助用戶實現既定的目標。
假如,企業有改善用戶幸福指數的明確目標,那麼首先要做到的就是利用技術手段來衡量這些指數。今天,我們認為有幾種工具可以幫助企業實現這一目標,它們甚至做得比人類自身更好:
特徵檢測
語調分析
情感檢測
以上提到的這些工具其實可以組合使用,創造以前無法實現的一種全新的交互方式以及應用,也為我們提供無法通過肉眼觀察得到的見解。當然,通過各種物聯網設備來獲得這些見解的條件是有一定量是信息輸入到設備當中,比如至少有一個或多個麥克風來實現語音交互,甚至還需要攝像頭。下文將對特徵檢測、語調分析和情感檢測三個工具進行仔細的分析:
特徵檢測
語音識別服務通常與返迴文本(「語音轉文本」API)相關聯,但是,語音識別服務同樣可以提供有關用戶的大量信息。這些信息可以是在與用戶交互期間實時收集,並將這些信息用於將來的分析中。通過聲音信息的收集,開發者可以輕易描述出說話者的某些特徵,如:
性別
語言
年齡
口音
生物特徵識別
除此之外,還可以檢測出究竟是一個在說話,還是多人的語音混合在一起。
對於一個精明的UX(用戶體驗)開發人員來說,他可能會為文本到語音引擎設置說話者的性別、口音、說話節奏等眾多參數來匹配用戶,從而讓用戶更輕鬆地使用這些物聯網設備。另外,通過識別當前使用的用戶,還可以針對該用戶提供定製化的內容,或者載入該用戶的概要文件等。
目前,提供API介面進行識別並對用戶進行分類的企業有Microsoft,Alchemy,Kaggle等。這些公司的業務模式之間存在巨大的差異,它們有著各異的API調用方式、收費標準和設備接入許可等。
情緒分析
用戶特徵識別只是第一步,下一步是需要分析、理解用戶所說的話語中包含著的微妙的含義。在自然語言中,可以將複雜的語句進行分解以便更好的理解用戶的意圖。但在機器的情感分析中,將會區分用戶的用詞,目前已有幾種服務可以分析文本並提供不同語音部分的反饋。
IBM Watson is one such service. If you feed it text, it will return back multiple aspects of the person』s use of language and personality:
如今也有很多類似的服務在市場上推出,以 IBM Watson作為例子,如果用戶輸入文本,Watson便可以通過分析該文本輸出關於說話者使用的語言、情緒等多方面的個人特徵,其中包括:
五大情感特徵(善意,自信,外向,情感,開放)
需求
價值
除了IBM以外,Google也可以提供了一項名為情緒分析的服務,Bing/Azure則提供了文本分析功能。同時,還有Qemotion、Text2Data和Opentext等。
對於這些服務來說,一個最大的局限因素是,進行分析時所需的文本長度不足。就拿Watson來說,它需要這個文本至少包含100個字,而這長度通常比人們通過語音或者典型輸入指令來命令物聯網設備啟動相關動作所用的時間長得多。
慶幸的是,設備製造商可以通過以下幾種方式解決這個問題:
第一個方式是連續記錄和對話轉錄。不過,這種方式除了讓用戶感到不安全外,還有其他的局限性,例如在一個多人說話的場景下,服務需要對整個對話進行簡化,在這個過程中連續轉錄通常很容易出錯。
另一種方法是隨著時間的推移進行長時間的積累,然後在達到最小長度的時候將它們發送出去以進行情緒分析。雖然這種方式看起來比較容易實現,但同時也有不可避免的缺點,因為這種方式無法提供實時分析,加上在樣本和上下文內容之間存在差異,因此分析結果並不能十分準確。
第三種方式是通過語音交互融合了其他來源的情緒數據。例如,某用戶剛剛發了充滿憤怒的簡訊或寫了一封充滿愛意的電子郵件,我們就可以對他們的精神狀態有一個清晰的想法,然後根據這一認知對語音請求作出回應。
準確判斷用戶的情緒
早在四年前的CES上,一家名為Beyond Verbal的公司就已經推出情緒檢測這種技術。如今,也有一些其他類型的公司可以通過嵌入式軟體來做到這一點,如Affectiva,EmoVoice和Vokaturi。
除語音之外,也可以利用機器視覺來提供實時情緒數據和個性化信息。例如,Bing搜索引擎可根據面部分析提供年齡,性別和情緒。
這就意味著,任何帶攝像頭的物聯網設備都可以拍攝下靜止圖像並上傳到API上,同時不斷地將信息反饋給設備上並行運行著的任何應用程序。
情緒與情感的結合
綜合這些特點,加上其他技術的協助可以讓我們更容易實現企業的小目標。這些目標可以是用戶明確提出來的要求,也可以是設備基於相關數據分析得出的結論。
然而,對物聯網應用的第一個要求是能夠快速匹配。
當我們呼叫一個處在寒冷地帶的人時,會發現自己正無意識地放慢自己講話的速度。這種潛意識的做法是為了讓自己能更好地與對方進行交流。
對人工智慧來說,在我們的語音交互中檢測以及做出如上同樣的舉動並沒有太大的困難。節奏,性別和語調都可以很快進行匹配。基於情感分析,我們也可以快速調整互動的簡潔性。假如用戶的回答比較簡短,那麼機器的回應也應該相對簡短。
第二個要求是能夠及時應對負面情緒。
當發現用戶有負面情緒時,系統可以嘗試通過各種方式來減輕用戶的消極情緒,比如:
播放用戶喜歡的音樂
改變燈的顏色
適時改變話語量
更改確認音調
更改回復中使用的語言
對於做出以上反應,目前最大的挑戰是開發人員必須處理一些輸入和響應矩陣。例如,如果亞馬遜將情緒檢測功能作為Alexa工具包中的一部分,它將同時傳遞用戶的請求以及用戶主要的、次要的情緒給開發者。那麼,該開發者將不得不為用戶的請求以及用戶的情緒而創建響應。
開發者有機會根據情緒創建自動回復,並根據用戶的心理狀態,開始對適應性進行分層。在這裡,我們可以應用機器學習來理解哪些適應性對用戶的心理狀態產生了最大的影響。
結語
有這麼一個問題,如果你知道你的物聯網設備會讓用戶在使用的過程中不那麼滿意,你是否會盡自己所能來改變這些用戶的感受?相信對於任何人來說,答案都是肯定的。
那麼,如何讓用戶在使用的過程中感到滿意?或許,讓你的設備能對用戶進行情感分析是一個很好的實現途徑。未來,在消費物聯網領域,能生存下來的物聯網設備也將是能夠對用戶進行情感分析的終端設備。
※Zephyr OS的2017:4次升級內核版本,讓物聯網設備研發「順風順水」
※疑雲重重、撲朔迷離,法拉第未來這10億美元融資到底是真是假?
※從馬雲、馬化騰、李彥宏、雷軍、庫克等8位大佬分享中,感受撲面而來的物聯網「氣息」
※23個基本物聯網標準、協議、技術術語快捷指南!
TAG:物聯網智庫 |