讓電腦讀懂人腦,美國科學家稱有方法將思想讀取為計算機語言
在目前的研究中用來記錄大腦活動的感測裝置
一種旨在將人類大腦中的思想轉化為計算機生成的自然發聲語言的系統被開發成功,科研人員稱這是一個「令人振奮的突破」。
美國加州大學舊金山分校(University of California,San Francisco)的研究人員設計了該系統——一種可以將大腦信號轉化為虛擬語音的計算機模擬系統,以幫助癱瘓或神經損傷的人恢復語音功能。
本周三(4月24日),美國科學雜誌《自然》發表了他們的論文。
該系統或設備的工作原理是,使用一個讓大腦與計算機形成連接的數據信息介面(BCI),該介面通過將大腦信號與人的發聲器官(包括聲帶、喉、下巴、嘴唇和舌頭)被激活的身體運動相匹配,來計算出一個人的語言或語音意圖。然後,計算機將這些數據翻譯成口語。
這項技術也可以被用來輔助癱瘓患者的——即由計算機模擬大腦信號控制身體的肢體運動。
美國科學雜誌《自然》在網站上發表了這篇論文的摘要
據報告,以往的BC計算機I語音輔助系統側重於打字,一般允許人們每分鐘最多輸入10個單詞,這大大落後於平均每分鐘150個單詞的平均說話速度。
科學家們與五名志願者合作,他們的大腦活動作為癲癇治療的一部分被監測起來。當志願者大聲朗讀幾百個句子時,研究人員記錄下了大腦語言生成區的活動。
從事該項目的研究人員聲稱,他們的計算機系統不僅可以恢復語音,而且最終還可以再現人類聲音的「音樂性」(musicality),即這種聲音傳達了說話人的情感和個性。
「這項研究首次表明,我們可以根據一個人的大腦活動,生成完整的口語句子,」神經外科教授兼該項研究的資深作者愛德華·張(Edward Chang)在一份新聞稿中說。 「這是一個令人振奮的原理證明。」
這位教授認為,藉助這項已經觸手可及的新技術,我們應該能夠製造出一種在臨床上可行的設備,用於幫助那些喪失語言能力的患者。
領導這項研究的語音科學家戈帕拉-阿努曼奇帕利(Gopala Anumanchipalli)表示,這一突破是通過將大腦活動與說話過程中的口腔和喉嚨運動聯繫起來,而不是將大腦信號與聲學和聲音聯繫起來。
美國科學家稱有方法將大腦信號讀取為計算機語言
他在新聞稿中說:「我們認為,如果人的大腦中的語言控制信號,是一組關於運動而不是聲音的編碼,我們也應該嘗試在解碼這些信號時做同樣的事情。」
在計算機進行的語言測試時,由計算機根據大腦信號生成的語音中,有多達69%的單詞被準確地識別出來。研究人員說,這一比率比以前的研究要好得多。
「要想完美地模仿口語(即將腦電波轉化成自然語言),我們還有一段路要走,」從事這項研究的生物工程專業研究生喬希-查蒂埃(Josh Chartier)說。「我們現在已經很擅長合成『sh』和『z』等較慢的語音,以及保持語音的節奏和語調,甚至顯示說話人的性別和身份。」
他還說,「但對英語中的有些爆破音,如『b』和『p』,就會變得有點模糊。儘管如此,與目前可用的系統相比,我們在實驗室實時獲得的讀取語音的準確性仍有驚人的提高。「
計算機系統可根據大腦信號生成人類語音
(本文由大灣區據國際科技媒體實時報道綜述,郭少英獨家編譯)
TAG:大灣區 |