AI取代會議同傳,還需幾步?
人工智慧,如果總是將未來的事情,拿到現在來評判,就會給很多人以錯覺。以同聲傳譯為例,幾年前就有互聯網大佬說,AI很快就可以取代同聲傳譯的工作!事實上真是如此嗎?儘管國內目前不乏在大型會議中全程多人使用機器同傳服務的案例,但要實現穩定、準確,並真正「取代」同傳行業,仍然需要假以時日。
親愛的翻譯官,會消失嗎?
同聲傳譯(Simultaneous interpretation),簡稱「同傳」,又稱「同聲翻譯」、「同步口譯」,是指傳譯員在不打斷講話者說話的情況下,不間斷地將講話者的內容翻譯後複述給聽眾的一種傳譯方式,傳譯員通過同傳的設備提供即時準確無誤的翻譯,這種翻譯方式適用於大型的權威研討會和國際性會議。
「同聲傳譯」這個職業曾被譽為世界上最高薪酬的工作,他們的工資不是按照「月」計算的所謂「月薪」,而是以「天」為單位,嚴格來說是以「每小時」乃至「每分鐘」作為計量單位來進行計算。這個「日進千金」的行業看似風光,實則每次傳譯員出行一次任務都是一場風暴似的腦力壓榨。
目前國際情況,世界上95%的國際高端會議都會採用同聲傳譯的方式進行。但大型會議使用「同聲傳譯」的歷史並不久,第一次應用要追溯到第二次世界大戰結束後,設立在德國的紐倫堡國際軍事法庭在審判法西斯戰犯時,首次採用。
走紅於網路的翻譯官張璐,就是為曾滿分翻譯了屈原《離騷》詩歌的選句:「亦余心之所善兮,雖九死其猶未悔」, For the ideal that I hold dear to my heart,I'dnot regret a thousand times todie(我遵從我內心的想法,即使要死千萬次我也不會後悔)。
李開復認為,一項本來由人從事的工作,如果可以在 5 秒鐘以內的時間裡,對工作中需要思考和決策的問題作出相應決定,那麼,這項工作就有非常大的可能被人工智慧技術全部或部分取代。基於這個原則,最有可能被部分或完全取代的職業包括了從事翻譯、新聞報道、助理、保安、銷售、客服、交易、會計、司機、家政等工作的人群。翻譯官、同聲傳譯並非不是一項艱苦的「腦力工作」,能被AI替代嗎?
機器翻譯發展到了哪個階段?
從機器翻譯的發展歷程來看,其實最早也是語言學的研究範圍(包括語音識別,也包含語言學的內容)。過去幾十年來,為了實現機器翻譯的夢想,以IBM、谷歌、微軟為代表的國外科研機構和企業均相繼成立機器翻譯團隊,專門從事智能翻譯研究,矢志打破語言的巴別塔,但突破發生在2014年起,機器翻譯領域開始有了翻天覆地的變化,這期間發生的大事,是以機器學習神經網路作為基礎的機器翻譯,開始在全面超越此前以統計模型為基礎的統計機器翻譯(SMT),並快速成為在線翻譯系統的主流標配。
在這場革命之後,機器翻譯徹底進入了Neural Machine Translation,即NWT神經網路機器翻譯時代。很多人為此歡欣鼓舞。甚至谷歌在中英翻譯系統上部署GNWT——谷歌神經機器翻譯的新聞發布之後,當時網上有一句廣為流傳的話:「作為翻譯,看到這個新聞的時候,我理解了18世紀紡織工人看到蒸汽機時的憂慮與恐懼。」
目前機器翻譯的水平到底哪家強呢?可以參考國際頂級機器翻譯比賽WMT(Workshop on Machine Translation),由來自歐洲和美國的高校、研究機構(Charles University、University of Edinburgh、FBK、MSR、Heidelberg University、Johns Hopkins University等)的研究人員聯合舉辦的業界公認的國際頂級機器翻譯比賽之一。WMT比賽從2006年開始到2017年,一共舉辦了12屆機器翻譯比賽。今年的新聞機器翻譯任務(Machine Translation of News)包含英語與捷克語、德語、芬蘭語、拉脫維亞、俄語、土耳其語、漢語等一共七個語種的互譯,總共14個翻譯方向。其中,中譯英和英譯中方向是今年新增加的兩個翻譯方向。
WMT 2017的官方主頁如下:
WMT 2017官方於今年9月初公布人工評分成績,而且此次比賽人工評測作為主要指標。搜狗語音交互技術中心-機器翻譯團隊提交的中英和英中系統獲得人工評價指標的雙向第一名。
(人工評測結果來源:http://www.statmt.org/wmt17/pdf/WMT17.pdf )
同聲傳譯難在哪裡?
搜狗的機器翻譯團隊成績有目共睹,而且搜狗同傳也是國內目前唯一曾應用於大型會議的語音識別+機器翻譯系統,從去年世界互聯網大會上,搜狗CEO王小川首秀了這項技術。隨後,搜狗同傳又在香港科技大學學術講座、前哨大會、GMIS大會上「炫技」。
隨著台上嘉賓演講的進行,經由語音識別、機器翻譯,其身後的屏幕上同步出現中英字幕。即便演講內容涉及人工智慧領域大量專業辭彙,搜狗同傳也能轉化並呈現。看樣子,搜狗能夠取代人工同傳,實現不同語言人們低成本的有效交流。
但是並不完全那麼簡單。以中英文的機器同傳為例,它大致需要將搜集來的中文語音信息經過語音斷句,獲得小的語音片段,然後會送到語音識別中獲得文本,此時需要對文本進行一些順滑處理,將這個經過語音識別後的處理文本送到端到端的神經網路(目前機器翻譯的主流方法),通過翻譯器進行語音翻譯。
機器同傳是語音識別+機器翻譯的過程,目前在業內語音識別領域就存在難以解決的問題,包括如何指定麥克風,比如有多個人說話、多個說話聲混在一起時,在機器系統裡面就會默認是人聲嘈雜的環境,沒有主說話人;另外還有包括雜訊、口音和距離造成的識別準確度等問題。而同傳要做好必然會受到兩個方面的能力影響,一是識別的能力,二是翻譯的能力,這兩個能力一般的錯誤是乘的關係,識別的錯誤會累加到翻譯的錯誤上。這就意味著,要做好機器同傳,在識別和翻譯上每一塊都要足夠強,不然最後疊加出來的效果就慘不忍睹了。
就機器同傳而言,目前搜狗的語音識別率已達97%,而機器翻譯的準確率則要略低一些,這也是業界的難題。雖然機器同傳依舊有這樣那樣的缺陷,但隨著AI的進步,我們相信五年內會繼續有一個大的飛躍。
對於何時出現一個「完美」的機器同傳,搜狗語音交互中心技術總監陳偉說,搜狗機器同傳接下來的發展,一方面需要保證穩定的語音識別率,比如噪音場景下;另一方面是機器翻譯如何能更好的找到一個完整的語義邊界。同傳系統最核心的就是建立一個連接語音識別和機器翻譯文本的處理系統,這個處理系統可以接收語音識別的結果,去做容錯。此外,就是如何處理更多口語化的表達,如「這個」、「那個」,以及如何斷句問題,確保翻譯出來的是一個完成的語義句子。當這些問題都解決的時候,機器同傳的效果才會提升很多。
電影《星際迷航》里,星艦通訊指揮官佐藤星把翻譯器集成到星艦人員佩戴的交流別針上或者耳朵里,語言不同的人可以進行自由實時的交流。劉慈欣在《三體》中描述到:被冰凍的人類在蘇醒時,第一眼看到的,就是與醫生所說內容同步出現的中英字幕。
我們看過太多的完美未來,也往往會把未來的場景當做現在的應用,但技術的打造需要時間需要切實的落地,但我們有信心,一定可以親眼見證這一出現在科幻小說中的場景。
※在分析了AI頂會上的6163篇論文後,我們能發現怎樣的發展趨勢與變化?……
※蘋果發布最新AI研究,「全文」解讀iPhone如何實時識別手寫體漢字
※智能體到底是什麼?這裡有一篇詳細解讀
※深度學習只能用實數?憑什麼不能用複數!
※雲跡科技為何能夠成為英特爾OEM合作商?
TAG:機器人圈 |