當前位置:
首頁 > 最新 > 谷歌開源AI能區分聲音 準確率達92%

谷歌開源AI能區分聲音 準確率達92%


谷歌開源AI能區分聲音 準確率達92%


網易科技訊11月13日消息,據VentureBeat報道,在語音嘈雜的環境中,要想分辨出有幾個人講話、在什麼時間講話,對於機器來說非常困難。但谷歌人工智慧(AI)研究部門在語音識別方面取得了新進展,能以92%的準確率識別出每個人聲音的專屬模式。

谷歌AI研究部門在最新名為《Fully Supervised Speaker Diarization》的論文和相關博客文章中,研究人員描述了一種新的AI系統,它「能以一種更有效的方式識別聲音」。

圖1:谷歌智能音箱Google Home

這套系統涉及到Speaker diarization任務,即需要標註出「誰」從「什麼時候」到「什麼時候」在說話,將語音樣本分割成獨特的、同構片段的過程。強大的AI系統必須能夠將新的演講者發音與它以前從未遇到過的語音片段關聯起來。

這篇論文的作者聲稱,核心演算法已經可在Github上的開源軟體中可用,它實現了一個在線二值化錯誤率(DER),在NIST SRE 2000 CALLHOME基準上是7.6%,這對於實時應用來說已經足夠低了,而谷歌之前使用的方法DER為8.8%。

谷歌研究人員的新方法是通過遞歸神經網路(RNN)模擬演講者的嵌入(如辭彙和短語的數學表示),遞歸神經網路是一種機器學習模型,它可以利用內部狀態來處理輸入序列。每個演講者都從自己的RNN實例開始,該實例不斷更新給定新嵌入的RNN狀態,使系統能夠學習發言者共享的高級知識。

研究人員在論文中寫道:「由於該系統的所有組件都可以在監督環境下學習,所以在有高質量時間標記演講者標籤訓練數據的情況下,它比無監督系統更受青睞。我們的系統受到全面監督,能夠從帶有時間戳的演講者標籤例子中學習。」

在未來的工作中,研究團隊計劃改進模型,使其能夠集成上下文信息來執行離線解碼,他們希望這將進一步減少DER。研究人員還希望能夠直接對聲學特徵進行建模,這樣整個Speaker diarization系統就可以進行端到端訓練。(小小)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 網易科技 的精彩文章:

施一公:西湖大學和國家社會、企業家共命運
每造一輛車就虧66萬?蔚來的未來是否依舊可期?

TAG:網易科技 |