當前位置:
首頁 > 新聞 > AlphaZero 榮登《科學》雜誌封面

AlphaZero 榮登《科學》雜誌封面

雷鋒網 AI 科技評論按:一年前,Alphabet 旗下人工智慧部門 DeepMind 發布 AlphaZero,稱它可以自學國際象棋、日本將棋和中國圍棋,並且項項都能擊敗世界冠軍。而今天,經過同行評議,AlphaZero 一舉登上《科學》雜誌封面。

據此前 DeepMind 在 AlphaZero 的論文中介紹,AlphaZero 使用了完全無需人工特徵、無需任何人類棋譜、甚至無需任何特定優化的通用強化學習演算法。也就是說,AlphaZero 實質上就是 AlphaGo Zero 的通用化進化版本,它繼續保持了 AlphaGo Zero 中不需要人工特徵、利用深度神經網路從零開始進行強化學習、結合蒙特卡洛樹搜索的特點,並在此基礎上,更新網路參數,減小網路估計的比賽結果和實際結果之間的誤差,同時最大化策略網路輸出動作和蒙特卡洛樹搜索可能性之間的相似度。

然而,在 DeepMind 發布 AlphaZero 之際,AlphaZero 也遭到了某種程度的質疑,例如,一位 AI 研究人員就指出,DeepMind 沒有公開它的 AI 系統源代碼,因此難以檢驗和重複它公布的結果。而如今這項研究成果經過同行評議登上《科學》雜誌的首頁,算是得到了證明。有趣的是,AlphaZero 的直接對手——棋手們也紛紛表達了他們的讚許:

例如日本將棋 9 段職業選手、棋史上唯一一位獲得「永世七冠」頭銜的棋士 Yoshiharu Habu 就評價道:

它的一些移動方法,比如將 King 移到棋盤的中心,就違背了日本將棋棋法。從人類的角度來看,AlphaZero 的這種做法似乎已將其置於危險的境地,但令人難以置信的是,它仍然掌控住了棋局。它獨特的下棋風格,讓我們看到了棋法新的可能性。

而前國際象棋世界冠軍 Garry Kasparov 也止不住地稱讚道:

我無法掩飾我的讚許,因為它的下棋風格靈活多變,這跟我自己的風格很像!

一個多世紀以來,象棋一直被用作人類和機器認知的羅塞塔石碑。AlphaZero 以一種獨特的方式,對古代棋盤遊戲與前沿科學之間的顯著聯繫帶來了新的東西。

其影響遠遠超出了我心愛的棋盤。這些自學成才的專家機器不僅表現得無比出色,而且實際上,我們人類還可以從它們產出的新知識中學習。

正如我們在前面提到的,AlphaZero 是 AlphaGo Zero 的通用化進化版本,而 AlphaGo Zero 又源自於 AlphaGo,接下來我們不妨簡單回顧一下這幾個版本:

最初的 AlphaGo 的工作原理是:

在蒙特卡羅樹搜索(MCTS)的框架下引入兩個卷積神經網路策略網路和價值網路以改進純隨機的蒙特卡羅(Monte Carlo)模擬,並藉助監督學習和強化學習訓練這兩個網路,然後主要靠策略網路和價值網路分別預測下一步落子的點以及評估當前的局勢。

而從 AlphaGo 到 AlphaGo Zero,系統的思路和模型結構都得到了大幅度簡化,帶來的是更快的訓練和運行速度,以及更高的棋力。

在更早版本的 AlphaGo 中,策略網路和價值網路是兩個不同的深度神經網路,Zero 版本中是同一個 ResNet 的兩組輸出;

AlphaGo Zero 之前幾個版本中都需要先把局面轉換為高一層的人工特徵再作為網路的輸入、需要先學習人類棋譜再轉變到自我對弈的強化學習、有一個單獨的快速走子網路進行隨機模擬,而 AlphaGo Zero 則把局面落子情況直接作為網路的輸入、由隨機的網路權值直接開始強化學習、捨棄快速走子網路直接用主要的神經網路模擬走子。

接著從 AlphaGo Zero 到 AlphaZero,發生的變化主要體現在如下幾個方面:

第一,AlphaGo Zero 會預計勝率,然後優化勝率,其中只考慮勝、負兩種結果;AlphaZero 則會估計比賽結果,然後優化達到預計的結果的概率,其中包含了平局甚至別的一些可能的結果。

第二,由於圍棋規則是具有旋轉和鏡像不變性的,所以專為圍棋設計的 AlphaGo Zero 和通用的 AlphaZero 就有不同的實現方法。AlphaGo Zero 訓練中會為每個棋局做 8 個對稱的增強數據;並且在蒙特卡洛樹搜索中,棋局會先經過隨機的旋轉或者鏡像變換之後再交給神經網路評估,這樣蒙特卡洛評估就可以在不同的偏向之間得到平均。國際象棋和日本象棋都是不對稱的,以上基於對稱性的方法就不能用了。所以 AlphaZero 並不增強訓練數據,也不會在蒙特卡洛樹搜索中變換棋局。

第三,在 AlphaGo Zero 中,自我對局的棋局是由所有之前的迭代過程中出現的表現最好的一個版本生成的。在每一次訓練迭代之後,新版本棋手的表現都要跟原先的表現最好的版本做對比;如果新的版本能以超過 55% 的勝率贏過原先版本,那麼這個新的版本就會成為新的「表現最好的版本」,然後用它生成新的棋局供後續的迭代優化使用。相比之下,AlphaZero 始終都只有一個持續優化的神經網路,自我對局的棋局也就是由具有最新參數的網路生成的,不再像原來那樣等待出現一個「表現最好的版本」之後再評估和迭代。這實際上增大了訓練出一個不好的結果的風險。

第四,AlphaGo Zero 中搜索部分的超參數是通過貝葉斯優化得到的。AlphaZero 中直接對所有的棋類使用了同一套超參數,不再對每種不同的棋做單獨的調節。唯一的例外在於訓練中加在先前版本策略上的雜訊的大小,這是為了保證網路有足夠的探索能力;雜訊的大小根據每種棋類的典型可行動作數目做了成比例的縮放。

將 AlphaGo 發展到 Alpha Zero,DeepMind 無疑是帶給了我們驚喜的。使用人工特徵的 AlphaGo Fan 在出山之戰中便全勝打敗樊麾,還發出第一篇論文;運行在 50 塊 TPU 上的 AlphaGo Lee 以 4:1 的戰績擊敗李世石,還創作了紀錄片並上映;接著只用 4 塊 TPU 的 AlphaGo Master 又在烏鎮圍棋峰會上以 3:0 擊敗柯潔,打碎了人類所有擊敗 AlphaGo 幻想;再又有拋棄人工特徵和所有人類高手棋局的 AlphaGo Zero 靠自學成功超越了「前輩」AlphaGo Master。而現在,DeepMind 帶來的這個更通用的、能下各種棋類的、而且在圍棋中的表現更上一層樓的通用強化學習模型——「AlphaZero」,則給我們帶來了更上一層的驚喜。

正如雷鋒網 AI 科技評論在此前對AlphaZero 的報道中所總結的那樣:在 AlphaGo 的一路進化中,我們見證了 DeepMind 的工程師們對深度強化學習本質的思考和嘗試,也看到了不斷的優化中帶來的無需先驗知識、降低資源消耗、提高訓練速度等等可喜的技術進步。而本次 AlphaZero 登上《科學》雜誌封面,也算是對他們所作出的嘗試和帶來的技術進步的一種回應。接下來 DeepMind 還將讓 Alpha Zero 進化到什麼哪個版本呢?讓我們期待一下吧~雷鋒網


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

獨家解讀|智能駕駛晶元技術路線的選擇:CPU、GPU、FPGA 以及 ASIC
文遠知行鍾華:L4級別無人駕駛在中國的落地之路|GTC 中國 2018

TAG:雷鋒網 |