腦機介面真的來了?不開口,不動手,讓機器幫你講話
不能開口說話的人,只能像霍金一樣,通過控制電腦來合成虛擬的語音嗎?在霍金的時代,這恐怕已經是最佳方法了,儘管這非常耗時耗力。
但從現在開始,這種情況有望改變了。就在本周,科學家們公開了新開發的系統:藉助腦機介面和AI技術,我們可以將腦活動轉化為語音,真正實現無需開口就「發出心聲」。
Chang lab / UCSF Dept. of Neurosurgery
該系統能解碼大腦的發聲意圖,並轉譯為我們大致可理解的言語,整個過程不需要包括嘴部在內的任何肌肉活動。而且更重要的是,系統的語音速度幾乎和我們自然講話時的速度一樣。
「這項工程令人敬畏」,它通過解碼腦信號「將言語能力的修復提升到了新的層次」, 神經科醫生及神經科學家安東尼·雷塔克齊奧(Anthony Ritaccio)博士說。
像自然講話時一樣流暢
研究者們也開發了其他虛擬語音輔助工具。它們可以解碼負責辨識字母和單詞的腦信號,也就是言語的文字表徵。但是這些方法都不如自然語音那樣快速且流暢。
根據《自然》雜誌本周的報道,新系統能夠解碼腦中控制發聲動作(比如輕擊舌頭、合上嘴唇等)的運動指令,並生成近似於說話者的自然節奏的可理解的句子。
專家稱這項新研究為我們提供了「原則驗證」(proof of principle),它預告了在將來的實驗改進中什麼是可能的。該系統已經在正常說話的人身上測試過了,然而,在那些因為常見的中風等神經疾病或損傷,而部分或全部喪失解碼能力的人身上還沒有驗證過。
為了進行新一輪試驗,科學家們招募了五位志願者,這些患者曾在醫院做過癲癇手術評估。
皮層腦電電極陣列是由記錄大腦活動的顱內電極組成的。| University of California, San Francisco
很多癲癇患者的藥物治療效果不好,只能選擇進行腦手術。術前,醫生必須先定位每個患者腦部的「危險區」,也就是癲癇的根源所在;定位方法是將電極植入腦中或皮層表面,並探測異常大量放電。
要準確定位這一區域可能花費數周。在這段時間裡,患者每時每刻都得帶著電極生活,電極位於與產生運動與聽覺信號有關的腦區或周邊。這些患者通常也會同意參與這些植入捎帶的附加實驗。
有五位這樣的病人同意測試新的虛擬語音生成器。他們每人都被植入了一兩個電極陣列:包含數百個微小電極的郵票大小的極板,被放置在他們的皮層表面。
語音合成腦機介面 | nature
當每位志願者背誦數百句句子時,電極就記錄下他們運動皮層的神經放電模式。研究者們將這些模式與他們自然說話時嘴唇、舌頭、咽喉和下顎的細微動作聯繫起來,然後把這些動作譯成口語句子。
研究者們邀請了一些英語母語者來聽這些句子,以判斷虛擬語音是否流暢。研究發現虛擬系統說的70%的內容清晰易懂。
「通過解碼控制發音的腦活動,我們證明了我們能夠模擬出語音,而且比基於提取大腦聲音表徵合成的要更準確、自然。」加州大學舊金山分校的神經外科教授及該研究的作者之一愛德華·張(Edward Chang)博士說。
愛德華·張致力於研究大腦如何產生和分析言語。他正在開發一種義聲,以恢復癱瘓及其他神經損傷病人的言語能力。| Steve Babuljak for U.C.S.F.
以往的植入式交流系統大約每分鐘產生8個單詞,而新系統能夠每分鐘生成150個單詞,達到了自然說話的速度。
我們會有一個更加普適的系統嗎?
研究者們還發現基於個體腦活動的合成語音系統可以在調整後為他人所用,這意味著未來某一天我們可能會擁有現成的公用虛擬系統。
該團隊正計劃開展臨床試驗以進一步測試系統。臨床上最大的挑戰可能是找到合適的患者,因為中風在使人喪失說話能力的同時,往往也會損害甚至摧毀支持語言表達的腦區。
不過我們也都看見了,腦機介面技術這一領域正飛速發展,世界各國許多團隊都在不斷突破,這些技術在將來很有希望服務於特定腦損傷的患者。
「鑒於這些持續進展,」生物醫學工程師切坦·潘達雷納特(Chethan Pandarinath)和雅西亞·H. 阿里(Yahia H. Ali)在隨文章發表的一篇評論中寫道,「我們看到了希望,有語言障礙的人們將會重獲自由表達思想的能力,並且與周遭的世界重新連接。」
c.2019 New York Times News Service
作者:Benedict Carey
編譯:有耳
編輯:EON
參考來源: https://www.nytimes.com/2019/04/24/health/artificial-speech-brain-injury.html
譯文版權屬於果殼,未經授權不得轉載.
※最強AI做英語閱讀理解才得了70多分,連中等生都不如
※迷失蜉蝣,輝耀星空,不速之「鵝」:「工作中的科學家"攝影大賽
TAG:果殼 |