清華大學成立聽覺智能研究中心,要解決可解釋和魯棒性問題
郭一璞 發自 清華
量子位 報道 | 公眾號 QbitAI
今天,清華大學人工智慧研究院聽覺智能研究中心成立了。
聽覺和語音一直是AI領域研究和應用的重點,中國科學院院士、清華大學人工智慧研究院院長張鈸認為,在後深度學習時代,聽覺智能應該成為AI領域重要的分支。
聽覺智能中心研究什麼?
清華大學鄭方教授擔任研究中心主任,他在現場介紹,聽覺智能研究中心集中於三個目標:
1、揭示人類聽覺的感知和認知機制;
2、建立聽覺智能的計算理論與方法;
3、提出計算機感知與聲音理解的技術和演算法。
聚焦於可解釋性 、魯棒性、安全 智能三個問題,研究中心的研發方向包括:
1、聲學場景的感知與理解;
2、語音中內容、聲紋、情感等多元屬性信息的識別與理解,不僅要識別說了什麼,還要根據聲紋識別出聲音的主人,說話者的情緒;
3、聽覺計算的魯棒性,保證相關應用穩定;
4、人機語音智能交互,和機器說人話,智能音箱就是這方面離我們最近的應用。
研究中心將以核心技術為基礎,產出產品和服務、形成知識產權、參與標準制定。
另外,研究中心還會進行多學科的交叉,與包括劍橋大學、喬治亞理工學院、中國人民大學、天津大學、新疆大學等在內的國內外多所高校進行合作;與微軟、得意音通、聯動優勢、浦發銀行、廣電運通金融等企業進行校企合作。
張鈸:為什麼需要聽覺智能研究中心?
中國科學院院士、清華大學人工智慧研究院院長張鈸介紹,聽覺本來不是AI獨立的領域,在AI興起之前也有很長的歷史,在人機交互、感知等方面和AI有很大交集。
進入深度學習時代後,深度學習完全改變了聽覺處理的現狀,使其真正走向實用,有商業產品,這歸功於統計學習、深度學習。
現在,我們進入後深度學習時代,語音處理等領域面臨同樣的問題:用深度學習建造的AI系統包括聽覺系統都非常脆弱,容易受攻擊,容易出錯,在語音識別方面也非常明顯,在安靜條件下可以達到很高識別率,在有干擾的情況下就遇到了很大問題。
清華大學解決了聲紋處理的魯棒性問題,但是隨著攻擊方式變化,如果用概率統計方法來做,漏洞依然存在。
因此,在後深度學習時代,聽覺智能應該成為AI領域重要的分支。
聽覺智能研究中心需要建立一個可解釋的AI方法為核心,與產業融合,與其他學科融合,突破AI發展中的很多問題。
另外,在AI教育方面,張鈸院士認為,AI本科培養主要還是靠計算機專業,AI是計算機科學技術的分支。需要重點加強的是研究生、高端人才的培養。另外,中低端AI人才也需要培養,但清華大學主要培養高端的AI發展骨幹,希望聽覺智能研究中心的成立能讓AI人才培養推進一步。
—完—
訂閱AI內參,獲取AI行業資訊
加入社群
量子位AI社群開始招募啦,量子位社群分:AI討論群、AI 行業群、AI技術群;
歡迎對AI感興趣的同學,在量子位公眾號(QbitAI)對話界面回復關鍵字「微信群」,獲取入群方式。(技術群與AI 行業群需經過審核,審核較嚴,敬請諒解)
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
喜歡就點「好看」吧 !
※PonyAI最新估值17億美元!崑崙萬維5千萬入股,這是中國自動駕駛新紀錄
※PonyAI進軍自動駕駛貨運,乘用無人車歷史性「小馬過河」
TAG:量子位 |