OpenAI發布可擴展的元學習演算法Reptile
安妮 編譯自 OpenAI官方博客
量子位 出品 | 公眾號 QbitAI
昨天,OpenAI發布了一種新型的可擴展元學習演算法Reptile,還能在線試玩。
何為Reptile?難道是——
咳咳嚴肅一點。
據OpenAI官方博客顯示,這是通過重複對一個任務進行採樣、隨機梯度下降並將初始參數更新為從任務中學習到的最終參數的演算法。
這種方法不禁讓人想到去年七月伯克利AI研究所關於未知模型元學習法(MAML)的研究。OpenAI表示,Reptile的效果和MAML相似,但實現起來更簡單,計算效率更高。
UC伯克利MAML相關論文:
http://bair.berkeley.edu/blog/2017/07/18/learning-to-learn/
試玩demo
元學習(Meta-learning)是一種學習如何學習的過程。向元學習演算法中輸入任務的分布,相當於每個任務都是一個需要學習的任務,演算法會產生一個快速的learner,每個learner可以從少數樣例中進行歸納。
小樣本學習(Few-shot Learning)分類問題是元學習中研究得比較充分的課題,learner只能從每個類中看到1-5個輸入-輸出樣例,然後對新的輸入進行分類。
下面是一個one-shot互動式演示的demo,可以在OpenAI的博客上試玩這個應用了Reptile小模型。
前三張圖為標記樣例,每張代表一個類別;最右是輸入未知樣例,Reptile將它劃分到最像的類別中
你可以通過點擊「Edit All」(編輯所有),隨心畫三個不同的形狀,然後在最右邊的輸入欄中再畫一個,看看Retile是如何對它進行分類的。
量子位也隨手畫了幾筆參與了一下這個項目:
畫工有限,見諒
嗯,已經寫不下一個「樂」了
Reptile認為,量子位手畫的小女孩應該屬於「熊貓」分類,手寫的「快」字和「節」更相像,應該分到這個分類中的可信度高達95.9%。
想試玩demo可以移步介紹頁面:
https://blog.openai.com/reptile/
目前,相關研究的論文也已經放出:
https://d4mucfpksywv.cloudfront.net/research-covers/reptile/reptile_update.pdf
So does 代碼(TensorFlow實現):
https://github.com/openai/supervised-reptile
一個基於JavaScript的實現(文中我們玩的那個demo就是用它做的~):
https://github.com/openai/supervised-reptile/tree/master/web
祝你玩得開心~
—完—
加入社群
量子位AI社群15群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot6入群;
此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。
進群請加小助手微信號qbitbot6,並務必備註相應群的關鍵詞~通過審核後我們將邀請進群。(專業群審核較嚴,敬請諒解)
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
※馬庫斯:DeepMind新出的機器心智網路不錯,但有誤導性
※全球No.3上市公司換了!曾新年獨自加班的貝佐斯,帶領亞馬遜擠掉微軟
TAG:量子位 |