專欄 | 上海紐約大學張崢教授:2017年影響力論文推薦
機器之心專欄
作者:張崢
上海舉辦「世界 AI 大會」,找到我作為評委之一,推薦和大會關聯的、2017 以來有影響的工作。我把推薦文章和一些補充材料和想法整理一下,在這裡拋磚引玉。
0:
Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm
https://arxiv.org/abs/1712.01815
David Silver, Thomas Hubert, Julian Schrittwieser, Ioannis Antonoglou, Matthew Lai, Arthur Guez, Marc Lanctot,Laurent Sifre, Dharshan Kumaran, Thore Graepel, Timothy Lillicrap, Karen Simonyan, Demis Hassabis
Google Deepmind
Date: 12/5/2017, NIPS 2017
Citation: 99
這篇文章特意選擇在 NIPS2017 會議期間發表,但與會者並沒有特別大的反應。相反,在研討會上這篇文章引起了關於通用智能的一場針鋒相對的討論。
通盤考慮對學界和工業界的影響力,把 AlphaZero 置頂應該沒有疑問。這是一個軟硬相輔相成、演算法和工程結合、頂級學術加頂級廣告的完美案例。演算法上最吸引人的不是進,而是退,不是做加法,而是做減法,退回到一個更加簡潔明快的框架之中。谷歌 TPU 系列硬體也藉此脫穎而出,到了大街小巷連門房大爺都要問個明白的程度。
這樣的工作,影響力已經遠遠超出了可以用學術界論文引用指數來衡量的範疇。在大會中我碰到文章的一作 David Silver,問他怎麼看中國的幾個圍棋程序,他笑笑說估計它們「參考」了這個工作,因為文章發表之後不久水平大漲。
這個項目即便提名,對方婉拒的可能不小。所以我正式的提名是以下五個工作。
1:
Poincaré Embeddings for Learning Hierarchical Representations.
http://papers.nips.cc/paper/7213-poincare-embeddings-for-learning-hierarc
Maximillian Nickel and Douwe Kiela
Facebook AI Research (FAIR)
Date: arXiv 5/22/2017; NIPS 2017
Citation: 47
這是相對小眾的理論文章。如果說機器學習是幢樓,那築樓的磚塊是「嵌入式表示」(Embedding Representation)。現實世界中的數據,比如圖像、文字、概念,存在於維度極高也極端稀疏的高維空間中,「嵌入」的意義在於把這些數據映射成一個相對稠密的低維空間中的向量,從而把源空間中巨大的空洞擠壓掉。深度學習的所有的計算都圍繞這相對稠密的對象空間中的向量展開,推演向量之間的關係。
一般情況下我們假設對象空間是個歐式空間。而真實數據、概念之間的關係很複雜,桌子是傢具的一類,大猩猩是人的遠親,分別對應分支和層次的關係,等等。這些關係量化到對象空間,其距離和位置是如何的呢?一種可能是把維度遍歷成序列,相當於賦予維度以層次的語義,排前維度代表更高的層次。即便如此,那麼劃分成多少層次,每層用多少維呢?這後面最根本的問題在於嵌入空間是否具有可解釋性,這個問題曾經困擾我很久。在追逐實用的浪潮中,如此重要的問題少有工作涉及。
這個工作創造性地把對象空間變成一個球體:離球中心越遠的點層次越低,在一個同心殼上的可以粗略地認為層次相當,離中心遠的同心殼上可分布的點也越多。其意義相當於把歐式空間拓展到非歐空間,自然表達了層次化,因此是一個極有潛力的好概念,並進一步激發想像力:是不是尺度變化不大的情況下可以認為向量分布在一個近歐式空間,而尺度大了以後是非歐空間?更重要的啟發在於,切換視角、做範式轉換比死啃現有的框架要有意義地多;能更一般化地擴展已有框架都是極好的工作。
2:
TVM: An Automated End-to-End Optimizing Compiler for Deep Learning
https://arxiv.org/abs/1802.04799
Tianqi Chen, Thierry Moreau, Ziheng Jiang, Lianmin Zheng, Eddie Yan, Meghan Cowan, Haichen Shen, Leyuan Wang, Yuwei Hu, Luis Ceze, Carlos Guestrin, Arvind Krishnamurthy
University of Washington
Date: 02/2018, SysML
Project site: https://tvm.ai/
Citation: 4
和前兩篇相比,這一篇來自華盛頓大學的工作幾乎沒有多少引用。主要原因是特別新,雖然項目開源已經有一段時間。這篇文章的短文在 2018 年在第一屆系統和機器學習的跨界研討會 SysML 發表,長文最近剛剛被系統研究的頂會 OSDI 2018 錄用。
人工智慧的打造離不開強大的硬體支撐,TVM 的意義在於建立了一個把演算法高效地實現到各類硬體的平台,打破了現階段主要硬體廠商對底層的壟斷。如果說工業界的研究更偏重落地、實用、開發商業價值,學術界的重要使命之一是打破壁壘,把技術民主化和扁平化。
這項工作在學術上打開了另一扇門,使得人工智慧演算法可以用來優化自身在底層硬體的實現。系統工程和人工智慧結合有幾個有意義的路徑,這個工作將是這方面的先驅,意義重大。此研究團隊在這方面的工作(如下)正在 NIPS2018 審稿階段,我認為非常出色。
Learning to Optimize Tensor Programs
https://arxiv.org/abs/1805.08166
Tianqi Chen, Lianmin Zheng, Eddie Yan, Ziheng Jiang, Thierry Moreau, Luis Ceze, Carlos Guestrin, Arvind Krishnamurthy
Date: 5/21/2018
相比而言,系統研究是個苦活,一個好工作經常需要一個很強的團隊合作至少九個月才能成型。而系統和 AI 兩方面都過硬十分難得。這篇文章的一作陳天奇同學和卡內基大學的李沐、紐約大學的王敏捷是開源平台 MXNet 的三大學生領袖,作風踏實、實力雄厚而樸實低調,是難能可貴的青年才俊。
3:
Attention is All you Need.
http://papers.nips.cc/paper/7181-attention-is-all-you-need
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, ?ukasz Kaiser, Illia Polosukhin.
Google Brain and Google Research
Date: arXiv 6/12/2017; NIPS 2017
Citation: 432
把語言看成一個序列,利用帶門控制的循環網路(比如 LSTM 或 GRU)來處理是常用手段。但帶來的問題也是顯而易見的:序列上的點如果要影響很多步之後的另一個點,需要「穿過」兩者之間的每一道門才能抵達。這層層關卡顯然是累贅,而且距離越遠帶來的問題越大。
這個工作在翻譯任務中拋棄循環網路的框架,力圖在節點間建立一個動態的關聯網路,在思路上是非常漂亮的一個突破,實際效果也非常好。
我個人傾向於把這個工作歸入動態圖和深度網路有機結合的一個大潮流之中。從這個角度來看,這個工作的出現是必然的。關於這個大方向,我在後面另作展開。
4:
Densely Connected Convolutional Networks
https://arxiv.org/abs/1608.06993
Gao Huang, Zhuang Liu, Laurens van der Maaten, Kilian Q. Weinberger
Cornell University
arXiv: 8/25/2016; CVPR 2017
Citation: 1284
這篇高引用文章面世於 2016 年,雖然正式會議發表是在 2017 年。所以,理論上並不符合「2017 年之後」的標準,但也值得提一下。
深度學習中的神經網路一味追求「深」帶來至少兩個問題:細節的丟失和錯誤信號的梯度難以回傳。ResNet 引入 skip-connection,把
淺
層的特徵可以逐層「快遞」,使得圖像識別網路的性能上了一個台階,但隨後發展進入停滯。這個工作並沒有在本質上改變這個局面,其突破是把淺
層特徵上報的範圍擴大,這也是「密鏈接」一詞的由來。在實用中,這個網路在控制參數總量的同時效果顯著。
5:
Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics
https://arxiv.org/abs/1705.07115
Alex Kendall, Yarin Gal, Roberto Cipolla
University of Cambridge
Date: arXiv 5/19/2017; CVPR 2018
Citation: 38
我們經常要求一個模型同時勝任多個任務,比如在定位物體的同時預測類別。多任務學習除了實用性,另一個意義是對模型進行約束。但帶來一個令人頭疼的問題:如何設置每個任務在訓練中的比重。這因為任務的難度不一樣,標註複雜度和標註中的噪音也不一樣。現階段依靠暴力搜索超參數的方法除了浪費計算資源,更大的問題是對問題缺乏嚴格的數學表述。
這個工作把單任務預測的不確定性和其在多任務訓練中的比重結合起來,給出了一個漂亮的數學形式,實驗結果也很不錯。雖然是在解決視覺問題中提出,但具有一般性,有被推廣的潛力。
其他推薦
從 2014 年開始,對抗網路(GAN)一直大熱,原文至今已經被引用超過 4400 次。對其他研究領域來說(比如我之前活動的系統研究領域),這是個天文數字。在圖像和自然語言中,有兩篇文章沒有直接用 GAN,而是取其精髓,用對抗的損失函數對中間層的表達做約束,用迭代翻譯的方法建立同一模態但不同表達的數據集(比如英文和德文、馬和斑馬)之間的聯繫,從而大大降低昂貴的標註成本。工作非常漂亮。
第一個是 CycleGAN:
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
https://arxiv.org/abs/1703.10593
Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros
University of California, Berkeley
Date: arXiv 3/30/2017; ICCV 2017
Citation: 700
第二個自然語言其實有兩篇同時在 ICLR 2018 年發表的文章
Unsupervised Machine Translation Using Monolingual Corpora Only.
https://arxiv.org/abs/1711.00043
Guillaume Lample, Alexis Conneau, Ludovic Denoyer, Marc"Aurelio Ranzato.
Facebook AI Research; University of Paris 06
Date: arXiv 10/31/2017; ICLR 2018.
Citation: 26
Unsupervised Neural Machine Translation.
https://arxiv.org/abs/1710.11041
Mikel Artetxe, Gorka Labaka, Eneko Agirre, Kyunghyun Cho.
University of the Basque Country (UPV/EHU); New York University
Date: 10/30/2017; ICLR 2018.
Citation: 26
2017 年還有一篇來自「教父」(之一)Hinton 的明星文章,所謂「
膠囊
網路」,其在 NIPS 的報告欄前擠滿了人。「膠囊
」的誕生有點早,在深度學習大熱之前的 2011 年,我也很早讀到,覺得有趣,也因此堅定了這個信念:除了層次化的卷積網路之外不借鑒大腦的工作機理都是短視和錯誤的。2011 年的文章提出了模型的粗框架,但更多是提出而不是解決了問題。顯然,Hinton 一直沒有放棄這個方向。這種堅持之可貴,值得國內的同行認真反思。
Dynamic Routing Between Capsules
https://arxiv.org/abs/1710.09829
Sara Sabour Nicholas Frosst Geoffrey E. Hinton
Google Brain
Date: arXiv 10/26/2017; NIPS 2017
Citation: 190
我個人的看法,「
膠囊
」在科學探索比實際應用更重要一些,是把腦科學和 AI 從神經元級別上升到電路層次來銜接的重要一步。在技術上有兩個地方值得學習,一個是球形的嵌入式表達,和之前的 Poincaré Embeddings(推薦的第一篇)有異曲同工之處,第二個就是迭代的圖計算,正是下面要提到的。2017 到 2018 年一個暗流涌動的區域是把圖理論和深度學習結合起來。或者說,大家開始意識到隱性挖掘數據中內在結構的局限性。在很多問題中,數據本身是由功能塊決定的,功能塊之間的聯繫可以看做一個圖上節點之間的鏈接。這些關係在有些場景中是顯性的,比如社交網路、分子結構。如果不是顯性也有機會學出來的,尤其當節點數並不是特別大的時候,比如 Attention is all you need 這篇文章就是利用了這一點。
以下這篇工作是谷歌 Deepmind 的總結性文章,在網上關注度不小。但我並不推薦,因為其中無太多新意。關於圖和深度網路結合,我看到最早的文章在 2007 年。
Relational inductive biases, deep learning, and graph networks
https://arxiv.org/abs/1806.01261
Peter W. Battaglia, Jessica B. Hamrick, Victor Bapst, Alvaro Sanchez-Gonzalez, Vinicius Zambaldi, Mateusz Malinowski, Andrea Tacchetti, David Raposo, Adam Santoro, Ryan Faulkner, Caglar Gulcehre, Francis Song,Andrew Ballard, Justin Gilmer, George Dahl, Ashish Vaswani, Kelsey Allen, Charles Nash, Victoria Langston, Chris Dyer, Nicolas Heess, Daan Wierstra, Pushmeet Kohli, Matt Botvinick, Oriol Vinyals, Yujia Li, Razvan Pascanu
Google Deepmind
Date: arXiv 6/4/2018
Citation 3
在谷歌的總結文章中,我認為缺少了對動態圖的處理;之前的 attention is all you need 可以看做動態圖在自然語言處理中的一個例子。下面這個工作專門做一般性的動態圖生成,實驗做得很仔細,是這方面開先河的一個工作。但 2017 年以來有不少文章,很難推薦一篇。因為這篇和谷歌的總結性文章互補,在這裡提一下。
Learning Deep Generative Models of Graphs
https://arxiv.org/abs/1803.03324
Yujia Li, Oriol Vinyals, Chris Dyer, Razvan Pascanu, Peter Battaglia
Google Deepmind
Date: 3/8/2018
Citation 9
和上面這個工作相關的來自谷歌的另一篇文章。這篇文章之所以影響不小,是因為拓展了另一個新領域,並順手把圖計算的介面整理了一下。值得參考。
Neural Message Passing for Quantum Chemistry
https://arxiv.org/abs/1704.01212
Justin Gilmer, Samuel S. Schoenholz, Patrick F. Riley, Oriol Vinyals, George E. Dahl
Google Deepmind
Date: 4/4/2017, NIPS 2017 workshop of Machine Learning for Molecules and Materials
Citation: 119
後記
總的來說,以深度學習為代表的人工智慧在 2017 年以來依然保持蓬勃發展的勢頭。因為 各個子領域採納的基本框架類似,文章都相通可以互鑒,一個嚴重的後果就是論文成災,找到含金量高的成果變成科研的一個瓶頸。
而總的來說,含金量在論文大量湧現的背景下按比例快速下降。大家都在吃上一代核心演算法的紅利。如果新一代核心演算法遲遲不能出現,這將是一個很糟糕的未來。我尤其為剛剛進入或將要進入研究生的同學們感到擔憂:花大力氣打磨出一些微小改進的工作是很無趣的。
但我還是保持謹慎的樂觀。其中一個原因是跨界人才的進入,和因此而來的新的應用領域的打開。為大賽推薦的這幾篇文章的作者,就有來自物理、材料、化學的高端人才。他們帶來不同的問題,不同的理論框架,不同的視野,不同的技術和框架。況且,以上推薦的這些文章啟發性還是很大。各方都在憋大招,可以說是暗流涌動不可預測。
要完成自我革命,一個重要的前提是對已有框架要保持高度自覺的警惕和懷疑。我認為某些手段的濫用遮蔽了更正確的道路,卷積網路、循環網路、注意力機制等等,有可能成為前進的絆腳石。不理解環境的暴力強化學習(model-free reinforcement learning)、無層次無結構的執行策略(policy)等等,都應該看成一個階段性的成果,而不是全部。靈活挖掘數據背後的結構,在有標籤的情況下和圖計算結合,在無標籤的情況下使用信息瓶頸來「擠」出結構來,是我個人看好的方向。
更可能的是,真正可怕也有趣的方向,正在我看不到的某個實驗室的角落發酵。
學界另一個不健康的趨勢是暴力選參。深度學習最後總要落實到一個優化問題上來。也許這個問題就是需要大容量的模型,就是需要做大批的參數篩選,但盲目預設這樣的前提,並為這樣的結果叫好,無疑是資源貧乏的學校等研究單位的自我降維。如果不說是自殺性的思路,至少是舉械投降的姿態。
最後說一下大家都關注的熱點,所謂中國 AI 研究已經世界老二,因為我們論文數已經第二。能發論文,說明了方法的掌握,不代表有影響力。而任何一種競賽,領先的都有帶路的責任,也所謂「一帶一路」。
那麼,所謂影響力,用論文的被引數是不是能成為一個參考呢?
我曾經聽其他學科的教授半開玩笑地說,論文里除了介紹(introduction)那一節的引用算,其他的引用都是充數。假如把實驗部分的引用也算上,這話是有些道理的,換句話說,即便被引,也不代表有相同的影響力。
另外,「影響」這個詞也相當主觀,因每個研究者的領域不同而異。我自己從系統界跨界過來,根基不紮實,而且做得雜。正因為如此,我十分期待大賽其他評委的推薦以及最後的結果——這是一個雖然貌似主觀但事實上更客觀的標準:到底哪些工作啟發了你?
無論如何,我希望大家不要愧對了「世界 AI 大會」這麼大的名頭。
我的推薦事先徵求了不少同行的意見,包括紐約大學 CIRVR 實驗室的幾位我很看重的老師。結果大家也看見了,主要集中在工業界的幾個聚合了很多天才的實驗室,也有小部分學校,並不在中國。
我認為中國 AI 不是第二,而是第一——但是是應用轉化和落地的第一。在原創性上,我們暫時不需要去比,因為既沒有比的必要,也沒有比的可能。中國在 AI 發展的道路上,其位置一直處於一個巨大的原創 IP 的市場,而不是產地。為此,我們避免了大量的試錯成本。
但有句老話說得好:出來混,早晚要還的。是不是?
作者簡介:
張崢:
上海紐約大學計算機終身教授,紐約大學庫朗數學研究所、計算機系、數據學院兼職教授,美國伊利諾大學香檳大學(UIUC)博士。中組部千人計劃專家。《知識分子》88人專家委員會成員。原惠普中央研究院研究員,原微軟亞洲研究院系統研究方向創始人、首席研究員、副院長,主要研究領域為深度學習和人工智慧、高性能大容量計算和存儲系統,在國際會議獲多次最佳論文, 在微軟和惠普獲卓越貢獻獎。開源深度學習平台MXNet的共同創始人和顧問。
本文為機器之心專欄,
轉載請聯繫本公眾號獲得授權
。?------------------------------------------------
加入機器之心(全職記者 / 實
習
生):hr@jiqizhixin.com投稿或尋求報道:
content
@jiqizhixin.com廣告 & 商務合作:bd@jiqizhixin.com
※涉嫌操縱股價:美國證監會介入調查,股票跌回原點
※ECCV 2018 | 曠視科技提出統一感知解析網路UPerNet,優化場景理解
TAG:機器之心 |