當前位置:
首頁 > 最新 > DeepMind最新深度學習研究:超參選擇利器-引入基於群體的訓練

DeepMind最新深度學習研究:超參選擇利器-引入基於群體的訓練

【導讀】機器學習的訓練和優化是現代深度學習模型中最具有挑戰性的方面,本文首先介紹了常用的深度學習超參數優化方法:隨機搜索和手動優化,然後引入DeepMind關於深度學習模型超參數優化的最新研究進展:基於群體的訓練(population based training), 它能夠在更短的時間和更低的計算資源佔用的情況下找到好的超參. 相信會被引入到更多的深度學習框架中,文末附有paper地址和GitHub地址,感興趣的朋友可以詳細了解一下。

What』s New in Deep Learning Research: Introducing Population Based Training

深度學習研究的新進展:基於群體的訓練

深度學習模型的訓練和優化是任何現代機器智能(MI)解決方案中最具挑戰性的方面。在許多情況下,數據科學家能夠迅速為特定問題找到正確的演算法集,然後要花費若干月找到模型的最優解。最近,DeepMind發表了一篇新的研究論文,其中提出了一種新的方法,用於訓練和優化深度學習模型——稱為基於群體的訓練(population based training)。

傳統深度學習模型的優化致力於:在避免急劇改變模型的核心組件的前提下最大限度地減少測試誤差。深度學習優化中最重要的方法之一是調整與模型本身正交的元素。深度學習理論通常將這些元素稱為超參數。通常,深度學習程序中的超參數包括諸如隱藏單元的數量、可以調整學習速率等要素以提高特定模型的性能等。

優化超參數是在深度學習功能的性能與其成本之間找到平衡的博弈。諸如隨機梯度下降及其變種演算法已成為深度學習優化的核心,但在大規模場景中應用時仍面臨重大挑戰。通常,深度學習超參數優化有兩種主要方法:隨機搜索和手動優化。在隨機搜索場景中,採用不同超參數的模型將各自獨立並行訓練,訓練結束時選擇性能最高的那個模型。通常情況下,這意味著只有小部分模型是拿著較好的超參數去訓練的,而其餘模型的超參數是有問題的結果而然不好,甚至可以說是在浪費計算資源, 如下圖所示。

手動尋找方法本質上是基於順序優化過程(sequential optimization)。順序優化需要完成多次訓練, 也就是一個接一個的試, 根據實驗結果認為調整新的超參數,再重新訓練模型。這是一個順序過程,使用最少的計算資源,然而導致參數優化時間變長。

正如你所看到的,隨機搜索和手動搜索技術都有其優點和局限性。最近,DeepMind團隊發表了一篇研究論文,主張採用新的優化技術,試圖結合兩種方法得到最佳的方法。

引入基於群體的訓練

基於群體的訓練(PBT)使用類似隨機搜索那樣的方法來對超參數和權重初始化進行隨機採樣。與傳統方法不同,PBT會非同步訓練然後定期評估模型性能。如果群體中的一個模型表現不佳,它將評估其餘的模型,並用更優化的模型取而代之。同時,在繼續訓練之前,PBT將在群體中表現的更好的模型的超參的基礎上再做修改.

PBT過程允許超參數在線優化,計算資源集中在超參數和權重空間上,這些空間有很大的機會產生好的結果。這將生成一個更快的學習速度,更低的計算資源以及更好的超參調整方案。

在研究論文中,DeepMind團隊將PBT應用於不同場景,如深度強化學習或機器翻譯。最初的結果非常令人鼓舞,PBT顯示出對傳統技術的巨大改進。

我們期待可以很快將PBT納入流行的深度學習框架。Github中有一個初始實現,我們很快會看到其他框架採用這個工作。

相關材料:

DeepMind論文:https://arxiv.org/abs/1711.09846

PBT GitHub實現:https://github.com/MattKleinsmith/pbt

https://towardsdatascience.com/whats-new-in-deep-learning-research-introducing-population-based-training-35c3e5526a90

-END-

專 · 知

人工智慧領域主題知識資料查看獲取【專知薈萃】人工智慧領域26個主題知識資料全集(入門/進階/論文/綜述/視頻/專家等)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 專知 的精彩文章:

概率論之概念解析:極大似然估計

TAG:專知 |