當前位置:
首頁 > 新聞 > 何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

新智元AI WORLD 2018世界人工智慧峰會

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

深度學習即表示學習

機器學習任務的表示(原始)數據:

  • 視覺:像素,......

  • 語言:字母,......

  • 語音:聲波,......

  • 遊戲:狀態,......

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

表示學習:AlphaGo

Bad representations → 模型(神經網路)→ good representations

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

神經網路的進化

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

學習表示:通過反向傳播,端到端地學習

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

LeNet

  • 卷積

  • 局部連接

  • 空間上權重共享(權重分配是DL的關鍵,例如,RNN在時間上共享權重)

  • 子採樣

  • 完全連接的輸出

  • 通過反向傳播訓練

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

AlexNet

AlexNet 保留LeNet風格的骨架,再加上:

ReLU

  • 「RevoLUtion of deep learning」

  • 訓練加速; 更好的grad prop(與tanh相比)

Dropout

  • 網內集成

  • 減少過度擬合

數據增強

  • 保留標籤的轉換

  • 減少過度擬合

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

VGG-16/19

「非常深的網路!」

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

初始化方法

  • 歸一化前向/後向信號的分析公式

  • 基於強假設(如高斯分布)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

GoogLeNet / Inception

GoogLeNet有很多版本,但有3個主要屬性是不變的:

  • 多個分支

  • 短路連接(shortcut)

  • Bottleneck

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

批量歸一化(BN)

  • Xavier / MSRA init不能直接應用於多分支網路

  • 優化多分支卷積網路(包括所有Inceptions和ResNets)主要受益於BN

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

批量歸一化(BN)

Recap:標準化圖像輸入(LeCun等人1998提出的「Efficient Backprop」)

BN:data-driven的標準化,對每一層、每個mini-batch都是如此

  • 大大加速訓練

  • 對初始化不敏感

  • 改進正則化

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

ResNets

只是簡單地堆疊層嗎?

簡單地堆疊層的網路(Plain nets)堆疊3x3的卷積層,堆到56層的時候比20層的時候訓練誤差和測試誤差都更高。

  • 「過於深」的plain nets具有較高的訓練誤差

  • 這是在許多數據集都觀察到的一般現象

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

更深的模型不應該訓練誤差反而更高

通過改善結構的解決方案:

  • 原始層:從已學習的淺層模型複製

  • 額外層:設置為identity

  • 至少保持訓練誤差相同

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

深度殘差學習

對於Plain net:

H(x) 是任何想要的映射,希望subnet符合H(x)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

對於Residual net:

同樣,H(x) 是任何想要的映射,但我們希望subnet符合F(x),即

H(x) = F(x) + x

在這裡,F(x)是一個殘差映射,與它相關的是identity

  • 如果identity是最優的,則容易將權重設置為0

  • 如果最佳映射接近identity,則更容易發現小的波動

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

在CIFAR-10數據集上的實驗

  • 深層的 ResNets可以毫無困難地進行訓練

  • 更深的ResNets具有更低的訓練誤差,並且還可以降低測試誤差

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

在ImageNet數據集上的實驗

  • 更深的ResNets具有更低的誤差

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

計算機視覺任務之外,residual connections用於神經機器翻譯(NMT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

residual connections 用於語音合成(WaveNet)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

AlphaGo Zero:使用了40個 Residual Blocks

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

ResNeXt:準確率更高,在各類競賽屢獲冠軍

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

更多架構:

  • Inception-ResNet [Szegedy et al 2017]

  • DenseNet [Huang et al CVPR 2017]

  • Xception [Chollet CVPR 2017]

  • MobileNets[Howard et al 2017]

  • ShuffleNet [Zhang et al 2017]

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

組規範化(GN)

  • 與batch size無關

  • 對小批量有魯棒性

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

總結

深度學習是表示學習

http://kaiminghe.com/eccv18tutorial/eccv2018_tutorial_kaiminghe.pdf

新智元AI WORLD 2018世界人工智慧峰會

倒計時4

門票已開售!

新智元將於9月20日在北京國家會議中心舉辦AI WORLD 2018世界人工智慧峰會,邀請機器學習教父、CMU教授 Tom Mitchell,邁克思·泰格馬克,周志華,陶大程,陳怡然等AI領袖一起關注機器智能與人類命運。

大會官網:

http://www.aiworld2018.com/

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

  • 活動行購票鏈接:

    http://www.huodongxing.com/event/6449053775000

  • 活動行購票二維碼:

何愷明ECCV 2018教程:深度學習就是表示學習(41PPT)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

在培養皿中種出計算機!華人女科學家用活體細胞研發「會思考的固態機器」
NIPS2018論文排行榜:谷歌強勢稱霸企業界!MIT學術界居首

TAG:新智元 |