AI語音助手如何能夠識別我們情緒化的聲音進行彼此互動
本文由Rehoo團隊Leery原創,無授權禁轉!(圖片來自網路)
目前市場智能語音產品,比如亞馬遜的Alexa,谷歌的Home或蘋果的Homepod,正變得越來越普及,但人們應該暫停思考機器學習的進展,這可能會導致應用程序理解不同的言語情緒。
谷歌首席執行官Sundar Pichai最近表示,該公司20%的搜索是通過手機通過語音發起的。而且,在2017年底,對美國市場的分析顯示,總共售出了4400萬台亞馬遜Alexa和Google Home設備。
這項技術具有越來越高的識別辭彙的能力,口頭交流也會變得複雜很多。智能揚聲器或虛擬助理,其中有一點缺點,因為他們只關注單詞,而大多忽略了語言是如何表達的。科技巨頭希望亞馬遜Echo等設備的下一個前沿將會探測到一個人如何從自己的聲音中感受到情緒讓互動更自然。
人的聲音可以提供關於發出的信息,他們來自哪裡以及他們的感受。如果語音控制裝置採用這種信息,則可以改進語音介面。這樣會有意想不到的後果。這項技術依賴於機器學習,這是人工智慧的一個分支,彙集了一台已經獲得大量數據的機器學習的演算法和統計數據,所以它的行為並不是完全可預測的。
研究表明,用於訓練機器學習應用程序的語音示例可能會導致偏見。這種技術問題在Google Translate等流行工具中已經很明顯。
例如,當用於將土耳其語短語「o bir doktor」和「o birhem?ire」翻譯成英語時,Google的服務返回結果「他是醫生」和「她是護士」。但是「o」在土耳其語中是一個不分性別的第三人稱代詞。醫生為男性,護士為女性的推定反映了文化偏見和性別在醫學界的分布偏差。谷歌翻譯發現了演算法在訓練數據中出現的人類文化偏見,看來我們還需要大量的時間來實現滿意的結果。
※美國宇航局將使用AI機器蜜蜂來探索收集火星數據
※蘋果發布iOS 11.3,這是自iOS 11首次推出以來最大升級版本
TAG:Rehoo科技 |