「ICML 2017」WGAN 領銜,Facebook 9 篇論文
20萬,這是新智元今天達到的用戶總數。在飛向智能宇宙的旅程中,感謝每一位和新智元同行的朋友。您的關注和支持是「新智元號」星艦永不枯竭的燃料。
Facebook AI 研究人員本周在澳大利亞悉尼舉辦的國際機器學習會議(ICML)上展示了他們最新的研究成果。國際領先的機器學習國際會議 ICML彙集了跨行業和學術界的研究人員,展開國際信息交流。
Facebook 在本屆 ICML 一共發表了 9 篇論文,話題涵蓋語言建模、優化和無監督學習圖像等主題。此外,Facebook 團隊還組織了一個視頻遊戲和機器學習(VGML)研討會(Workshop)。
在 9 篇論文中,Facebook 特意介紹了他們去年引發轟動的 WGAN。
WGAN:解決不穩定問題,更好地訓練 GAN
提出 WGAN 的文章全名「Wasserstein Generative Adversarial Networks」,由 Facebook 和紐約大學研究人員 Martin Arjovsky,Soumith Chintala 和 Leon Bottouu 合著完成,提出了一種替代並且改進傳統 GAN 訓練的方法,名叫 Wasserstein GAN。
雖然生成對抗網路(GAN)在無監督學習方面表現出了很強的能力,但由於數值收斂不穩定,在實踐中 GAN 訓練演算法往往難以使用。在本文中,研究人員提出,使用地球移動(EM)距離的一個近似來代替 GAN 的目標函數。通過比較 EM 距離與學習分布時常用的概率距離和分歧,研究人員論證了這樣做的合理性,然後定義了 Wasserstein GAN(WGAN),WGAN 可以最大限度地減少 EM 距離的方便近似,並且能消去 GAN 訓練過程中幾個已知的問題。
論文圖2:不同的方法學習 8 個高斯分布的結果:WGAN 能夠在沒有 mode collapse 的情況下學習分布。
WGAN 的主要優點是讓研究人員能夠完整訓練 critic。當 critic 被訓練完時,會給生成器產生一個 loss。Critic 越好,用於訓練生成器的梯度質量就越高。這樣就不需要在 GAN 訓練過程中為了實現生成器和判別器的平衡而進行複雜微調。研究人員還觀察到,當調整生成器的架構使其符合一些條件,WGAN 比 GAN 的魯棒性更高。
WGAN 在實踐中最具吸引力的一個地方是通過在訓練中優化 critic,不斷評估 EM 距離。 由於這些要素都與觀察到的樣本質量密切相關,所以繪製學習曲線在調試和超參數搜索方面非常有用。
論文圖4:不同訓練階段的訓練曲線和樣本。可以看到,誤差較低和樣本質量更高之間有明確的相關性
Facebook 在 ICML 2017 上的 9 篇論文
High-Dimensional Variance-Reduced Stochastic Gradient Expectation-Maximization Algorithm
Rongda Zhu, Lingxiao Wang, Chengxiang Zhai, Quanquan Gu
An Analytical Formula of Population Gradient for two-layered ReLU network and its Applications in Convergence and Critical Point Analysis
Yuandong Tian
Convolutional Sequence to Sequence Learning
Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, Yann Dauphin
Efficient softmax approximation for GPUs
Edouard Grave, Armand Joulin, Moustapha Cisse, David Grangier, Hervé Jégou
Gradient Boosted Decision Trees for High Dimensional Sparse Output
Si Si, Huan Zhang, Sathiya Keerthi, Dhruv Mahajan, Inderjit Dhillon, Cho-Jui Hsieh
Language Modeling with Gated Convolutional Networks
Yann Dauphin, Angela Fan, Michael Auli, David Grangier
Parseval Networks: Improving Robustness to Adversarial Examples
Moustapha Cissem, Piotr Bojanowski, Edouard Grave
Unsupervised Learning by Predicting Noise
Piotr Bojanowski, Armand Joulin
Wasserstein Generative Adversarial Networks
Martin Arjovsky, Soumith Chintala, Leon Bottou
點擊閱讀原文可查看職位詳情,期待你的加入~
![](https://pic.pimg.tw/zzuyanan/1488615166-1259157397.png)
![](https://pic.pimg.tw/zzuyanan/1482887990-2595557020.jpg)
※「NIPS 2017」理解大腦如何控制運動,斯坦福用AI技術開發完美骨骼和神經模型
※計算機視覺導覽:如何快速上手,是否該讀博?
※「CB Insights百頁AI報告」2017人工智慧現狀、創業圖景與未來(98PPT)
※AI 師生圖譜:盤點因師生情誼被谷歌亞馬遜等巨頭招募的大牛
TAG:新智元 |
※ICML 2019錄取結果出爐,Ian Goodfellow等入選論文推薦
※伯克利 AI 研究院提出新的數據增強演算法,比谷歌大腦的 AutoAugment 更強!| ICML 2019 oral 論文
※Google「推翻」無監督研究成果!斬獲 ICML 2019 最佳論文
※圖靈獎得主Yoshua Bengio談5G、中美爭端以及錯誤的ICML最佳論文
※【ICML 2019】微軟最新通用預訓練模型MASS,超越BERT、GPT!
※超越標準 GNN !DeepMind、谷歌提出圖匹配網路| ICML最新論文
※新鮮出爐 700+ICML 2019 論文集合!
※數千人頂會的乾貨,ICML、CVPR2019演講視頻資源在此
※ICML 2018最佳論文出爐:伯克利、MIT最佳論文,復旦大學榜上有名
※在ICML展現類腦晶元,Abakus(鯨算科技)pick的可不只這款硬科技
※ICML 2019 大會投稿新要求出爐!
※「ICML 2018最佳論文出爐」MIT、UC伯克利獲最佳論文,復旦大學等獲提名獎
※在ICML上展現類腦晶元,Abakus所pick的可不只這款硬科技!
※「乾貨」ICML2018:63篇強化學習論文精華解讀!
※ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎
※「最全」機器學習頂會 ICML 2018 接收論文列表
※頂會ICML特別開設「懟日」Workshop,意見不同您儘管來
※明年AI學術會議投稿規模炸裂!注意ICML 2019的這些變化
※ICML 2019 深度強化學習文章匯總
※機器學習頂會 ICML 2018 開始了