中科院計算所研究員陳雲霽:深度學習處理器的現狀及發展
主講人:陳雲霽 | 中科院計算機所研究員
整理:陳銘林 張康
量子位 出品 | 公眾號 QbitAI
3月28日周三晚,北京大學「人工智慧前沿與產業趨勢」第五講,本期中科院計算機所研究員陳雲霽授課主題為「深度學習處理器的現狀及發展」,分享了深度學習的工作方式、深度學習處理器的發展、寒武紀目前的科研成果等相關內容。
全程從有趣的案例出發,深入淺出地拆解相關技術知識,量子位作為獨家合作媒體,為大家帶來詳細課程筆記一份。
課程導師:雷鳴,天使投資人,百度創始七劍客之一,酷我音樂創始人,北京大學信科人工智慧創新中心主任,2000年獲得北京大學計算機碩士學位,2005年獲得斯坦福商學院MBA學位,同時也是「千人計劃」特聘專家。
主講嘉賓:陳雲霽,中科院計算所智能處理器研究中心主任。14歲就讀於中科大少年班,24歲博士畢業於中科院計算所,29歲起任中科院計算機所研究員(正教授)、博導。目前是中科院計算所智能處理器研究中心主任,中國科學院腦科學卓越中心特聘研究員,以及中國科學院大學崗位教授。他帶領其團隊研製了國際上首個深度學習處理器晶元寒武紀,被MIT技術評論評為全球35位傑出青年創新者(2015年度)。
智能應用成為計算機主要負載
寒武紀做智能晶元最主要的目標就是去完成各種各樣的智能計算任務,為它們提供核心晶元的支撐。我們看到有這樣一個趨勢:計算機已經不僅僅是科學家和工程師計算的一個工具,而是幫我們從日常重複的事物中解放出來,很多智能已經成為我們日常生活中常見的一些任務。
智能應用成為計算機最主要的負載,比如說在超級計算機上做的商業分析、藥物研製,或者是數據中心的廣告推薦、自動翻譯,還包括手機里的語音識別、圖像分析,還有很多嵌入式設備方面的機器人、自動駕駛、手環、手錶,其實背後最主要的還是在做智能計算的任務。
這些智能任務有很多,主要的處理方法主要有三種:符號主義、行為主義、聯結主義。
符號主義是希望能夠用符號邏輯把所有知識、需要解決的問題表達出來,再通過邏輯求解器把這些問題解決掉。符號主義的實施比較難,所以現在並不是那麼的流行了。
行為主義,機器人就是偏這一塊的,也就是希望從行為上一開始能做到一個月小孩的智能水平,再繼續做,再達到一歲多小孩的能力,這樣逐漸提升。雖然行為主義有這樣的一個框架,但是卻沒有很好的實現手段。
所以目前來看,現在最主要的是聯結主義,這裡面的核心手段是人工神經網路,核心思想是:人的大腦是一個由生物神經元細胞組成的網路,這裡面大概有千億個神經元細胞、百萬億個突觸,有這麼多神經元和突觸組成的網路賦予人腦智能。
深度學習
人工神經元
1943年有兩個科學家,一個叫W Mcculloch(心理學家)、一個叫W Pitts(數理邏輯學家),他們提出一個問題:我們能不能對人的大腦做一個數字化的抽象?於是就提出了人工神經網路這樣一套方法,這個方法背後的思想是:把人的大腦里每一個神經元細胞抽象成一個數字,每個突觸抽象成一個數字,這個數字組成的網路從某種意義上來說就繼承了人腦處理智能的能力,這就是現在的人工神經網路。
生物的神經元和人工的神經元實際上有非常大的區別,區別有多大呢?華老師有個比喻:生物神經元和計算機里的人工神經元的區別就像老鼠和米老鼠的區別。米老鼠是對老鼠的一個抽象,把老鼠的很多特徵都抽取出來,比如鬍子、嘴巴等,但是老鼠身上的一些系統在米老鼠的身上就抽象掉了;另外一個方面,為了讓米老鼠現得更萌,讓更多小朋友能喜歡它,這可能是原本老鼠所不具備的東西。
計算機里的人工神經網路和生物的神經細胞之間也有類似的區別。比如說,這裡面的生物神經元可能是這樣一個形狀,它裡面有一個細胞體,有軸突,有樹突,神經元碰到的地方我們稱為它的突觸,就是兩個神經元細胞的連接,那麼人工神經元看起來就簡單多了,黑圈表示神經元,神經元之間的東西可以稱為突觸或者稱為連接,紅圈代表它的權重。
看一個最簡單的人工神經網路,它只有一個神經元。先看它的構成,它可以從外界得到輸入,每個輸入都有一個權重,把輸入進行匯總的時候通過一個非線性的激活函數就決定了它整個最後的輸出。
這麼簡單的一個人工神經元就可以完成一些有意思的問題,比如說分類問題。分類在人工智慧或者機器學習裡面非常基礎的、非常普遍的一個問題,比如對面走過來一個人,他叫什麼名字、我認不認識他,這就是一個典型的分類問題。如果能夠解決分類問題,那麼這種方法實際上就有一定的普適性了,可以解決很多其他的東西。
剛剛講的是一個神經元,很多個神經元在一起做什麼呢?深度學習就是一種多層大規模的人工神經網路,最早深度學習在提出的時候,就有部分借鑒了生物神經元的特點。神經元是在我們大腦皮層裡面,一般比較先進的生物會進化出一些比較複雜的皮層,逐層會對信息進行抽象和提取,賦予了人一種比較強的智能處理能力。
深度學習最早有一點點借鑒這種思想,也可以把人工神經網路做成很多層,像這個例子裡面,有一個Convolution層、有LRN(Local Response Normalization)層、有Pooling層、有Classifier層等不同類型的層。但是隨著深度學習的發展,不拘泥於過去這些生物的限制,人的大腦實際上只有六層,而現在的深度學習技術可能就是上百層、數百層甚至有上千層的網路。
深度學習工作方式和應用
看一個簡單的圖例,深度學習到底是怎麼工作的。
比如說在這個圖例里,我們可能是一個5、6層的神經網路,第一層可以看到一些局部簡單的特徵,比如對角線這樣的東西;再下一層神經網路做了一個更大範圍的卷積,會看到一個更大範圍、更複雜的特徵,比如說由環、圈、點這樣類似的東西;到下一層我們可以看到更大範圍更複雜的。
進行逐級抽象之後,就可以對一個複雜的圖片進行理解,比如豬、狗、貓等這些東西,像ImageNet、語音、自然語言處理里都有非常多的比賽、挑戰賽,現在基本上是深度學習在主導著這個榜前幾名。
這裡有一個很著名的測試,用深度可以達到99%的準確度,不僅僅像MNIST這樣簡單的問題,還有像比較複雜的問題,比如人臉識別。機器在某些特定的工作條件下、邊界條件下,可以達到比人識別人臉更高的程度。但是從魯棒性條件來說,深度學習和人還是有一點點的差距的,但是這個差距我覺得是技術上彌補的,可能需要五年或者更長時間。
另外是語音識別,語音識別現在大家用的已經非常多了、已經是一個非常工業化的技術了。舉個例子比如說科大訊飛的語音輸入法,實際上這裡面都是在用深度學習的方法在做支撐。
2014年DeepMind就已經提出了一套深度學習加增強學習的框架,這裡面的含義就是說深度學習就是一個人工神經網路,但是這些人工神經網路的拓撲、參數、權重是怎麼得到的呢?它是通過增強學習這套框架不斷在現實中學習、調節、不斷在自然界中去使用神經網路,然後計算機再返回去調整這個神經網路的權重。
當時DeepMind用它去教會了計算機打很多種小遊戲,大概有幾十種。比如貪吃蛇這種遊戲,用這套框架,DeepMind就告訴計算機,只需要看著屏幕,只需要把這個遊戲的分數打得盡量高,不需要告訴計算機遊戲規則是什麼。
DeepMind讓計算機學會了打40多種小遊戲,而且有20多種超過了人類的世界記錄。然後,DeepMind又把這套深度學習加增強學習的框架用到了下圍棋方面,如大家所知,AlphaGo戰勝了很多人類世界冠軍,他們再把這套框架應用在更多的不同類型的棋類遊戲里,都紛紛戰勝了人類的頂尖選手,所以說DeepMind的這套深度學習加增強學習框架是非常了不起的。
晶元與神經網路
我們為什麼要做專門的晶元來支持神經網路的應用呢?
其實原因很簡單,現在的晶元,比如說CPU、GPU,在進行深度學習處理的時候,效率是比較低下的。
從CPU的角度來說,2012年,有個非常知名的工作——谷歌大腦,谷歌大腦當時用1.6萬個CPU核跑了接近一周去訓練識別貓臉,這個工作當時在NIPS引起了非常大的反響,因為它把貓臉或者人臉識別的準確度顯著地提升。但是從另外一個角度上來看,它需要的計算資源太多了,並不是一個普通人、一個普通的企業,能夠有這麼多個CPU核去跑這麼複雜的任務。
另外一個例子是AlphaGo,它在跟李世石下棋的時候,當時用了1000多個CPU和200個GPU,平均每塊電費就需要接近3000美元。這反映了一個很實際的問題:現在人工智慧演算法的能耗實在是太高了,不管CPU還是GPU,都不足夠把這些演算法真正地用起來。
我們期望智能時代的到來,期望大量智能應用能夠落地,這裡面一定要有一個前提:物質載體要成熟。但是從現在來看,不管是CPU還是GPU,不管是性能還是能耗,現在晶元都不足以支撐。
另外還有一個更加長遠的問題:現在最複雜的人工神經網路演算法,裡面的突觸多達1000億多個,但是跟人的大腦相比還是有很大差別——人大概有百萬億個突觸。
這是一個從老鼠到米老鼠的比較,我們這裡的1000億個突觸是指人工神經網路里的,而百萬億個突觸是人腦里生物神經元的突觸,可能這兩者之間不能劃等號,但是它畢竟體現出了一個數量級的差別。
所以專門的人工神經網路處理器或者說深度學習處理器在未來不管從學術角度還是產業角度發展來看都是必然的事情,未來的每台計算機都需要一個專門的深度學習處理器。
寒武紀的發展
我想這個是跟GPU具有同樣規模的潛在市場,非常幸運的是我們中科院計算所走得比國際同行要相對早一些,從2008年開始我們就開始做這方面的研究,團隊的名字就叫做寒武紀。
這些是我們具體做的一些工作。
2013年我們做了國際上第一個深度學習架構,這個工作獲得了ASPLOS最佳論文獎,這是在亞洲地區,在計算機體系結構頂級會議上的首次拿獎。
這個工作實際上是在通用CPU十分之一的面積上做到了它百倍的性能,後來做了一系列相關工作,包括國際上第一個多核深度學習處理器、國際上第一個商用深度學習處理器等等,獲得了一批頂級會議的最佳論文。
應用
目前我們有了一些比較廣闊的應用,主要包括雲伺服器和手機等幾個方面的應用。
現在華為的一些高端機型,比如Mate系列、P系列、榮耀V系列都集成了寒武紀的深度學習處理器,為它提供了本地實時智能處理能力。華為在上面做了好多應用,比如拍照時候識別出來你拍了什麼東西,可以自動調節光圈、快門等,這些跑在寒武紀深度學習處理器上時,你就不需要聯網了,可以實時本地完成這些任務。
除此之外還有一些雲伺服器的應用,和阿里、聯想、中科曙光等這些企業都有合作。
寒武紀的學術貢獻
在做深度學習處理器的過程中,我們在學術上還有一些貢獻。
傳統的思路是特定演算法硬體化的思路,沒有辦法解決深度學習處理器的需求。深度學習不是一個特定的演算法,而是一大類演算法,它有處理語音的、有處理圖像的、有處理自然語言的、有下棋的、也有做廣告推薦的,但是更麻煩的是世界上至少有幾十萬個研究機器學習的人,每天都會有機器學習演算法出來,過去那種思路,對深度學習來說是不可能解決的,因為晶元的研製周期很長,你花兩年的研製出晶元來,這時候世界又冒出幾十、幾百個新的演算法來,如果晶元無法支持,這個晶元就白做了。
這裡面涉及到三個科學的問題:
第一、 有限規模的硬體怎麼支持任意規模的演算法?這裡面的思想是這樣:做一個深度學習處理器,它裡面是用硬體電路來做突觸和神經元,你怎麼用有限規模的硬體去面對幾乎無限規模的演算法。
第二、 結構固定的硬體怎麼去應對千變萬化的演算法?晶元還是一個鐵疙瘩,它做好之後哪些突觸跟神經元有連接都已經確定了;但是演算法不是這樣的,比如在手機上面,要跑語音的、圖像識別的、自然語言理解的,不同的演算法的拓撲、連接都是不同的,一個固定的硬體怎麼把它們解決掉。
第三、 能耗受限的硬體怎麼應對精度受限的演算法?我們設計硬體的時候,它是有些固定的約束,比如要用在手機上,那麼就一定不能超過一瓦,不然手機就發燙。但另外一方面是精度受限的演算法,做演算法的工程師不考慮受限的情況,只考慮把精度做的越高越好,所以做硬體和做演算法的人之間的思路是存在一個矛盾。
虛擬化的同時降低開銷
有限規模的硬體怎麼應對任意規模的演算法?我們的思想很簡單:硬體神經元的虛擬化,我通過復用,把有限規模的硬體虛擬成大規模的人工神經網路。看一個很容易理解的例子:我們要處理一個非常大的人工神經網路,就是PPT中白色圈,但是我們硬體又很小,那怎麼辦呢?
把這個大的要處理的邏輯人工神經網路切成很多個小塊,每個小塊我們映射到硬體上的每個小塊上去處理,通過螞蟻搬大米的方式:用一個有限大小的硬體,處理另一大規模的演算法。有一個很大的好處是:如果演算法變了,硬體並不需要變,比如再加一層,或者說再加一些神經元,只要把虛擬化的軟體稍微調一下就可以。
但是,在這個虛擬化的過程中,其實是帶來了開銷,也就是需要做一些數據搬運,要把演算法神經元或邏輯神經元搬到硬體神經元上來。所以這裡面我們有很多更細節的技術,比如搬運的過程中,怎麼保證能夠不斷地重用神經元或者突觸的數據。這樣就導致一個結果:一方面在虛擬化中讓有限規模的硬體處理任意規模的演算法;另外一個方面,虛擬化過程中,數據基本上是能夠大幅度重用的,沒有太多數據搬運的開銷。
指令集
結構固定的硬體如何去應對千變萬化的演算法。這裡面的思想是:自動化抽取各種各樣的深度學習+機器學習演算法的貢獻的基本運算元。通過這個方式我們設計了國際上第一個智能的指令集。
為什麼做深度學習指令集要用機器學習呢?一方面,全世界可能有100萬人做深度學習,每天都能搞出一些演算法;另一方面,這麼多搞深度學習的人,他們每天變來變去,但是萬變不離其宗,基本的trick都是幾十年來傳承下來,就那麼幾招,而這些招數就在上百種的機器學習演算法里。
這些機器學習演算法模型都不一樣,有的是概率模型,有的是線性模型,有的是非線性模型,有的是神經網路的模型,有的是SVM的模型,還有其他不同類型的演算法,把這上百種機器學習演算法都分析一遍,我們就能確保,即便未來再出了新的深度學習演算法,也跳不出我們的手掌心。
我們2013年和2014年做了第一個深度學習處理器的架構,到現在,像GAN,Fast R-CNN這些各種各樣新的演算法層出不窮,但是依然能夠高效地支持,就是因為我們把可能的套路都已經分析的比較清楚。
分析套路具體是做什麼呢?
第一、 把這些演算法全部拉出來,做一個最耗時最需要運算操作的集合,做這個合集是為了分析做深度學習處理器需要什麼樣的部件。
第二、 尋找機器學習演算法中的緩存的,讀取數據的共性,自己來設計變數存儲。所以就看到很多機器學習演算法:KNN、K-means、SVM、樸素貝葉斯、貝葉斯網路等等
這樣得出一個結論:世界上可能有上百種機器學習演算法,但是他們裡面共性的運算都是很固定的,就這幾種:向量內積,向量距離,計數,非線性函數,排序等等。
另外還找到一個共性,我們稱為「三個柱子」:一個數據局部現象的共性,用機器學習的方法,對機器學習的演算法再做一次分析,把一個機器學習演算法裡面所有的變數都拿出來,對它做一個聚類。然後發現,不管重用模式,重用距離還是重用次數,從訪問寬度上來看,一般來說每個機器學習演算法裡面的變數也就兩到三類。
我們找到了機器學習演算法里的共性,找到了共性的緩存的模式,之後設計了一套專門的指令集,能夠高效支持各種各樣的機器學習演算法,深度學習演算法。
具體怎麼支持呢?出現一個新的演算法,只需要指令之間的拼接組合,就能夠把新的演算法給完成出來,這就解決了固定的硬體怎麼去應對千變萬化演算法的這個問題。
關於稀疏的方法
第三個學術貢獻,是關於稀疏的方法。
做硬體的這些人,包括我們,會受到最大的能耗限制:在手機上不能超過1W,在伺服器上因為封裝散熱的限制,晶元也不能超過300W。
如何應對呢?我們提出了一套稀疏神經網路處理器的這樣的一個思想。因為神經網路對計算誤差具有一定的容忍能力,尤其是對它進行一些重訓練之後還要做一些代償,於是就需要對神經網路進行稀疏化,這樣就能在有限的能耗下完成高精度的智能處理。
但是這裡有一個問題:稀疏化的過程中,如何保證精度?稀疏掉了90%的神經元,在有的場景下可能精度不會降低,有的場景下可能精度就降低了。我們提出了一整套軟硬體的執行方法,可以自動判斷精度有沒有下降。
到底多小是非常小到可以稀疏化掉呢?就是閾值。比如這裡設0.01,如果發現0.01為閾值,最後精度下降了,那就把閾值調低一點,反過來說當用戶體驗不受影響的時候又可以把閾值調高一點。思路就是在運行時的環境中做動態調節。
國際影響力
寒武紀的學術貢獻也在國際上的同行中形成了一定的影響力。
在智能晶元領域,國際上被他引最多的兩篇論文都來自我們這個團隊,前十的論文里可能有接近一半是來自我們這個團隊。包括哈佛,斯坦福,普林斯頓,MIT,伯克利,哥倫比亞,英特爾等在內的國際上百個科研機構都在跟蹤寒武紀的前沿成果。
在精度和性能、功耗比上,我們比英偉達,谷歌,蘋果這些,仍然是有優勢的。去年年底, iPhone X和華為Mate10基本同時發布,第三方測評報告里,華為Mate10的深度學習處理器的性能要比iPhone X里的性能高3倍左右,而華為Mate10的深度學習處理器是用的寒武紀的技術。今年2月份,Science雜誌對寒武紀的工作進行了深度的報道,並表示我們是業內的引領者。
寒武紀的夢想
想說一下寒武紀未來的夢想,這個夢想不一定能達成,但是我們會朝之努力。
希望把代表性智能演算法的處理速度跟性能功耗比提升10000倍。為什麼是10000倍呢?因為谷歌大腦是1.6萬個CPU核,如果能夠提升1萬倍就意味著能夠把谷歌大腦這樣的東西能夠放到一個手機里。
這樣的手機,不僅僅是幫助我們本地實時地完成各種圖像語音和文本的識別和理解,更重要是它還具備訓練能力,能耗還很低,那麼它就可以不間斷的去觀察人、社會和自然界的行為,不斷提升自己的智能。
雷鳴對話陳雲霽
寒武紀晶元,是通用的深度學習晶元么?
對,我們做的就是通用的機器學習處理器,更準確的講應該說深度學習處理器是我們過去做的工作,現在做的是一個通用的機器學習處理器,不僅僅是深度學習演算法,包括KNN,K-means,支持向量機等等都可以完成。
我覺得這個對於產業落地來說重要且關鍵。如果晶元只能支持特定的演算法,應用面就會非常窄,會有很大的市場風險。而且晶元的成本非常高,做一個晶元,流片成本就應該在1億到2億之間人民幣。所以晶元如果沒有廣闊的應用面,不可能去用最先進的工具做一個最好的產品。
從現在寒武紀的進展來講,距離這些通用處理器還有多大距離呢?
距離應該說非常近了。我們在進行智能處理的時候,能效比會比現在的GPU還有TPU都還要高不少。但是也必須說清楚,我們的應用面沒有GPU那麼廣,GPU畢竟還能做圖形處理,科學計算,做很多我們做不了的東西。
我們如果能做出和GPU一樣的東西,那坦率地說應該做不過英偉達,這是一個很實際的事情。但是我們在我們這個領域,其實是有實測數據的,明顯的要比TPU有一些優勢。這裡面有一個非常重要的原因:靈活性上有優勢。
關於什麼時候用得上,這也是大家比較關心的問題。這裡有兩個方面,第一個方面是終端,其實現在的華為手機都能用上了,很多公司已經面向寒武紀的處理器和指令集開始做App。另外一塊是雲端,這裡賣個關子,很快大家就會見到了。希望在做深度學習研究的老師同學,試一試寒武紀的東西。
如果想讓大家買的話,性價比怎麼樣?對通用平台的支持,比如TensorFlow、Caffe,是不是可以無縫支持使用呢?
第一個問題我不清楚,我只管在計算所里花錢研發,其他是陳天石的事情。(笑)
關於對通用平台的支持,無縫都是可以的,包括TensorFlow、Caffe等等都可以。同時我們提供一套自己的編程語言,萬一有一些做機器學習的人開發一些新的演算法,如果過去的編程觀念支持不了,可以用我們的編程語言實現。實際上目前已經有很多公司去用了,他們也不怎麼需要寒武紀來做技術支持,就是因為我們把編程框架,底層的東西已經封裝好了,相當於能夠有一個無縫的接入。
我們經常說中國的晶元產業比較落後,現在寒武紀異軍突起,走的算是比較的快,整體來講你認為中國的晶元產業和美國比起來還有多長的路,大體上還差什麼?如果我們逐漸追趕的話這個路徑會是什麼樣的?
謝謝,我覺得這是中國所有做集成電路和半導體人的夢想。目前我的感覺是,如果中國有一家集成電路設計企業能成為世界領先,華為應該能算上。除了華為之外,像展訊,還有比特大陸。
從技術積累上看,華為在全方面都有很好的積累。但問題是華為,包括寒武紀,是一個集成電路設計企業。從中國的角度來說,整個行業,如果要走到世界前列,那麼就要整個鏈條都走到前列,而不是說幾家企業。
整個鏈條形成閉環就有很大的難度,涉及到產業鏈的方方面面。相對來說集成電路設計需要補課的內容不多,但是在生產包括EDA軟體,包括未來的一些東西,需要補課的地方還很多。所以我覺得我們只能大家一起努力,各個鏈條上,達到這個夢想。
你和弟弟從這種很學術化的場景,轉到去做產業的場景,能分享一下這個轉變有什麼比較困難的經歷,以及成功的經歷呢?
成功的經歷目前還沒有,還在路上。首先我和陳天石有分工,過去是他做演算法我做硬體,到後來我們要去做產業化,就是他做公司我做技術,所以他可能感受更深,我從一個旁觀者的角度來說能夠感覺到:做生意真累。
在座的老師同學們,如果不是百分百確信自己這麼強的熱情,最好不要輕易嘗試,很辛苦,不僅僅是每天需要到處跑,接觸各種各樣的人,面對的環境更複雜;更重要是壓力不一樣。
做技術研究者的壓力是:這次論文沒中,下次再投吧,總有一個期刊能適合我,中不了就再去投子刊物,總能中一個。但是做企業,其實寒武紀一直比較順暢,但是背後的壓力也很大。對於一個企業,我能明顯感覺到:一款產品,一個階段,一不小心踩空,可能就是一個巨大的打擊。
反正我覺得搞研究真的挺好的,叫我干企業我肯定不幹。(笑)
雷總您覺得從做投資人和創業者這兩個角度看,您覺得哪個更有意思?
雷鳴:我覺得,可能還是和人的特點有關係。這兩種工作在能選擇的情況下差別很大。中國的或者全球的富豪榜,裡面找不到VC,因為雖然投資是很高大上的職業,但是主要是給別人掙錢。從賺錢的角度來看,這個職業平均收入極高,但是要是單點一個人巨高,還是要走創業這條路。
從實現夢想的角度來看,如果你真的有一個事情想把它做好,其實還是創業的比較多。因為作為投資人你覺得這個機會特別好,但是你覺得團隊不給力的時候,你沒什麼辦法,只是投資人而已;但是有一類人是,他喜歡的面比較廣,喜歡創新的這些東西,不太喜歡運營,這種就比較適合做投資。
人的本性就是如此,不專註就走不專註的路,逼著自己專註有時候可能也挺累的。
你對大家的發展有什麼建議,建不建議大家也做個晶元公司還是說建議大家現在著重學習些什麼,準備些什麼?
我還是從技術研究的角度來說,還是覺得大家要找一個自己真正非常喜歡的領域,去從事這方面的研究。做研究其實非常痛苦,如果不能得到樂趣,純功利的角度,那還挺悲催的。如果大家能夠選擇的話,根據自己的初心來選擇。如果有一天我選擇創業,那一定是我的研究需要一個公司作為一個平台,來帶來更大的效應。
下期預告
下周三晚18:40,北京大學「人工智慧前沿與產業趨勢」第六講,將由百度自動駕駛首席架構師陳競凱為大家授課。
感興趣的小夥伴可以添加量子位小助手6:qbitbot6,備註「北大」,通過後可進入課程活動群,獲取每期課程信息,與其他小夥伴互動交流。
祝大家聽課愉快~
學習資料
在量子位微信公眾號(QbitAI)界面回復:「180330」,可獲取本次課程的視頻回放鏈接。
—完—
※未來無人車市場中,誰最賺錢?
※英偉達發布全球最大GPU:性能提升10倍,售價250萬
TAG:量子位 |