商湯科技林達華:AI處於粗放型發展階段
作者:億邦動力網
【億邦動力訊】7月5日消息,日前,在由中國計算機學會(CCF)、雷鋒網、香港中文大學(深圳)聯合舉辦的2018全球人工智慧與機器人峰會(CCF-GAIR)上,商湯科技聯合創始人、香港中文大學-商湯科技聯合實驗室主任林達華教授,發表了題為「計算機視覺研究中的新探索」的演講,闡述了計算機視覺未來3~5年的研究方向。
林達華指出,人工智慧在過去幾年的成功,它不是偶然的,也並不僅僅只是演算法發展的結果,它是很多的因素歷史性地交匯在一起,促成了這波人工智慧浪潮。
第一個是數據,海量數據、運用場景數據的積累,以及GPU的發展,計算能力大幅度的躍升,在這個基礎上,演算法的進展才帶來了今天人工智慧的成功和在眾多應用場景的落地。人工智慧不是一個魔術,從某種意義上它就是在龐大的數據量、在巨大的計算能力支撐下的性能進步。
林達華表示,目前人工智慧還處於粗放型發展階段,準確率不是唯一的方向; 人工智慧發展有多方面不同含義,比如效率、成本、質量等等。
他還認為,人工智慧,其最終目的是要為我們的生活帶來便利,提高我們生活的質量。但是最近幾年人工智慧的發展好像走入了誤區,人工智慧的質量跟準確率是掛鉤的,但其實人工智慧是有多個方面不同的含義,不僅僅是質量,它的質量其實是多個方面、多個層次的。
以下為林達華教授演講實錄:
今天非常榮幸能夠在這裡分享港中文-商湯聯合實驗室過去幾年的工作。首先說明一下我並沒有直接地去參與商湯在商業領域的運作,所以大家如果要關心商湯什麼時候上市,這個問題我是回答不了的。但是我能夠告訴給大家的是,商湯公司不是一天建成的,它今天的成功也不僅僅是三年半的努力,它是建立在它背後這個實驗室18年如一日的原創技術積累。我們今天在這個實驗室所做的事情,它影響的不是商湯今天拿什麼東西出去賺取利潤,而是商湯要做一個偉大的科技公司,在未來的3年、5年、10年要向什麼地方走。
準確率不是唯一的方向 目前人工智慧還處於粗放型發展階段
在過去的8年時間中,計算機視覺可以說是取得了一個突破性的進展,最重要的在技術上的進展應該是深度學習的引入。在這個領域有一個非常高級別的比賽叫做ImageNet。在2012年之前,這個錯誤率都是比較高的,2012年以後由於深度學習的引入,經歷了4年的黃金時期。在這4年的黃金期裡面,ImageNet的錯誤率從16%下降到了接近3%。
在這裡我想問的一個問題是,深度學習確實在這幾年的黃金時期取得了突破性的進展,但是不是說我們到了現在這個水平,計算機視覺的研究已經終結了呢?從現在這個水平再往前看3年、5年、10年的時間,我們未來的研究方嚮應該做什麼?這是我們整個實驗室,也包括商湯一直在思考的問題。
事實上如果要回答這個問題,我們可以看到,人工智慧在過去幾年的成功,它不是偶然的,也並不僅僅只是演算法發展的結果,它是很多的因素歷史性地交匯在一起,促成了這波人工智慧浪潮。
第一個是數據,我們的海量數據、運用場景數據的積累,以及GPU的發展,計算能力大幅度的躍升,在這個基礎上,演算法的進展才帶來了今天人工智慧的成功和在眾多應用場景的落地。所以我在這裡希望向大家傳遞的信息是,雖然大家看到人工智慧的很多成功的故事,看到了演算法方面的巨大進展,但是人工智慧不是一個魔術,從某種意義上它就是在龐大的數據量、在巨大的計算能力支撐下的性能進步。
這其實從某種意義上是一種非常粗放型的發展,大家都去追逐一個正確率,追求性能的目標。最近幾年中國的公司在國際上所有比賽的榜單上都排到了前三名,但是這是以巨大的工程力量和資源投入為代價的,這種發展模式是不是可以持續?這是我們需要思考的問題。回顧深度學習或者人工智慧在過去幾年的發展,我覺得有很多的事情,我們還有很長的路需要走。
效率、成本、質量 人工智慧發展有多方面不同含義
在這裡分享幾個方向的思考,第一,是學習的效率,是不是充分地把我們的計算資源使用起來。第二,我們面對巨大的數據成本,或者標註成本,如何解決這個困境。最後,就是說我們雖然在榜單上拿到了99.9%的準確率,但是這樣訓練出來的模型是不是真正滿足我們的生活或者社會生產的需要?這些都是我們要把人工智慧落地,推向更快、更好發展需要解決的問題。
首先我們講第一個方面,效率。
我剛才說過,我們現在基本上是用粗放型的方法發展,就靠堆積數據、堆積計算資源,去獲得很高的性能,是資源的競爭,而不是效率的競賽。但是我們未來要怎麼發展,就需要進一步回顧我們現在的模型和技術的模式,看看還有沒有優化的空間。優化的原理非常簡單,就是把好鋼用在刀刃上。
舉一個具體的例子,我們在幾年前就開始進入了視頻領域,視頻是一個非常需要效率的地方,視頻的數據量非常龐大,一秒鐘的視頻就是24幀,一分鐘的視頻就差不多是1500幀,基本上相當於一個中型的數據。利用傳統的處理圖像集的方式去處理視頻顯然是不合適的。
在2013、2014年的時候大部分的視頻分析方法採取的是比較簡單的方式,每一幀都拿出來跑一個卷積網路,最後把它集成綜合到一起進行判斷。雖然說過去幾年計算資源發展非常快,但是GPU的顯存還是有限的,如果每一層都放到CNN去跑,GPU顯存只能容納10幀到20幀左右,一秒鐘的視頻就把GPU充滿了,是沒辦法對長時間的視頻進行分析的,這是一種非常低效的模式。
我們知道視頻相鄰幀之間是非常相似的,這一幀跑一次,下一幀再跑一次,大量的計算浪費掉。我們看到了這個重複計算的低效,我們把這個採樣方法重新進行了改變,改用了稀疏採樣,無論多長的視頻進來,我都劃分成等長的段落,每一段只取一幀或幾幀出來,這樣我就能對視頻有一個完整的時間範圍覆蓋,自然分析出來的結果也會有比較高的可靠性和準確性。憑藉這個網路,我們拿到2016年ActivityNet的冠軍,現在很多實際中使用的長視頻分析架構,都已經採用了這種稀疏採樣的想法。
在這之後我們進一步拓展我們的研究領域,不僅僅是做這個視頻理解,我們還進一步做在視頻裡面的物體的檢測。這也帶來一個新的困難,之前做分類識別,我們可以分段,每一段拿出來會獲得一個大體上的理解。但是物體檢測沒辦法這麼做,每一幀都需要把物體的位置輸出出來,在時間上是不能稀疏的。這一頁slide顯示了我們在2016年ImageNet比賽視頻物體檢測項目取得冠軍的網路,具體細節我不說了,基本上就是把每一幀的特徵拿出來,判斷它的類型是什麼,對物體框的位置做出調整,然後把它串起來。這裡面需要每一幀都要處理,當時最厲害的GPU每秒鐘只能處理幾幀,需要大量的GPU才能把這個網路訓練出來。
我們希望把這樣一個技術用在實際場景,希望得到一個實時性的物體檢測的框架,要是我們每一幀都是按剛才的方法處理,需要140毫秒,是完全沒有辦法做到實時,但是如果稀疏地去采,比如說每20幀采一次,中間的幀怎麼辦呢?
大家可能想到用插值的方法把它插出來,但是我們發現這個方法對準確度影響很大,隔10幀采一次,中間的準確度差距很大。在新提出的方法里,我們利用幀與幀之間相互的關係,通過一個代價小得多的網路模塊,只需要花5毫秒,在幀與幀之間傳遞信息,就能很好地保持了檢測精度。這樣我們重新改變了做視頻分析的路徑之後,整體的代價就得到了大幅度的下降。這裡面沒有什麼新鮮的東西,網路都是那些網路,只是說我們重新去規划了視頻分析的計算路徑,重新設計了整個框架。
大家可以看看結果。上面是7毫秒逐幀處理的,我們2016年比賽就是用的這個網路,後面我們經過改進之後,超過62幀每秒,而且它的結果更加可靠、更加平滑,因為它使用了多幀之間的關聯。
同樣我們商湯在做自動駕駛,需要對駕駛過程中的場景自動地進行理解和語義分割,這也是一個非常成熟的領域。但大家的關注點一直沒到點子上,大家關注的是分割的準確率,像素級的準確率,這是沒有意義的。我們真正在做自動駕駛,關心的是人在你車前的時候,你有多快的速度判斷出有個人在那裡,然後做出一個非常緊急的處理。所以在自動駕駛的場景,判斷的效率、判斷的速度是非常重要的。之前的方法處理每一幀要100多毫秒,如果真有一個人出現在車前面,一個緊急情況發生在前面的話,是來不及做出反應的。
利用剛才所說的方法,我們重新改造了一個模型,充分地使用了幀與幀之間的聯繫,我們可以把每一幀處理的效能從600毫秒降低到60毫秒,大幅度地提高了這個技術對於突發情景響應的速度。這裡面其實也是使用了剛才類似的方法,技術細節就不說了。
其次,我們講第二個方面,成本。
剛才是說效率上我們怎麼可以提高,接下來是數據成本。我們經常開玩笑說,人工智慧是先有人工再有智能,有多少人工就有多少智能。所以今天我們有人工智慧的繁榮,我們不應該忘記在背後有成千上萬像這樣的人在背後默默地奉獻,這就是我們數據的標註員。一些大的公司,有上萬人的標註團隊,這對人工智慧發展來說也是一個巨大的成本。
怎麼樣把這個成本降低下來?這也是我們每天都在思考的事情。既然有很多東西我們沒辦法用人去標註的話,我們是不是可以換一個思路,從數據、場景裡面去尋求本身就蘊涵的一些標註信息?
這是我們去年的一個工作,也是發表在CVPR上,這裡面我們嘗試一種全新的方式去學習,我們圖片的標註成本非常高,每張圖片不僅要標註出來,還要把框框出來,以前我們要識別動物,要人工標很多動物,但是以前我們小時候學習動物,不是說老師給我一個圖片,給我一個有框的東西去學的,我們是看《動物世界》去學的,這個方式就促使我們想到一個方法,我們能不能看《動物世界》,把所有的動物找到。這裡面有一個天然的聯繫,紀錄片上有字幕,字幕上有文字,可以把它和視覺上的場景連接在一起,是不是可以自動學出來,為了這一點,我們設計了框架,把它的信息幾何方面的聯繫,以及視覺跟文本之間的聯繫建立起來,最後我們得到了一個這樣的結果。
這是我們在沒有任何人工干預的情況下獲得的幾十種動物的非常精確的識別,沒有任何的標註,就是看《動物世界》,看《國家地理》雜誌。
除此之外,我們現在做人臉識別,有大量的人臉數據要標註,這裡面有一些天然的數據就是我們的家庭相冊裡面有很多人,這些相冊雖然沒有標註,但是裡面蘊涵了很多信息。這是經典電影《泰坦尼克》的一個鏡頭,如果大家只是看人臉很難看出這上面兩個人是誰,但是我們往下走可以看到右邊是Rose,但是左邊這個穿西裝的還是看不清楚是誰,這時候如果我們把這個電影背後的場景識別出來,你會發現Jack和Rose經常出現在同一個場景里,這時候基於這種社交互動的信息,我們可以自動判斷這個穿黑衣服的男生可能是Jack。我們通過人臉不經過標註的情況下,就提供了大量的有意義的數據。在這項新工作中,我們還有效地利用了時間上的關聯,一個人從街道這邊走到那邊,人臉的樣子會發生很大的變化,我們還是可以判斷是同一個人。
最後,是關於質量。
我們說人工智慧,它其實最終目的是要為我們的生活帶來便利,提高我們生活的質量。但是我們最近幾年人工智慧的發展好像走入了誤區,認為人工智慧的質量跟準確率是掛鉤的,但其實我們覺得人工智慧是有多個方面不同的含義,不僅僅是質量,它的質量其實是多個方面、多個層次的。
給大家看幾個例子,這是最近幾年特別火的一個研究領域,就是給一張照片看圖說話,讓計算機自動生成一個描述,這是用我們最新的方法得到的結果,大家可以看一下。
大家可以看到三張不同的圖放出來,我們用最好的這種模型,它會說同一句話,而且這句話在標準的測試上分數都非常高,是沒有任何問題的,但我們放在一起看的時候發現人不是這樣說話的,我們描述一張圖片的時候,即使同一張圖片,不同的人都會說不同的東西。這就是我們在追求識別的時候忽略掉的另外的品質,包括它的自然性和它的特性。
為了解決這個問題,我們在去年另外一個工作上提出了一個新的方法,它不再把這個內容看成一個翻譯問題,它把它看成一個從概率分布中採樣的問題,它承認多樣性,每個人看到一張圖片會說不同的話,我們希望把這個採樣過程學習出來。關於這個模型具體的細節,大家可以看相關的論文。這裡可以看到這個結果,同樣的三張圖,我們可以看到它出來了三句更加生動的,能夠很好地描述這個圖裡特徵的語句。
最後我們把這個工作再往前推進了一下,我們既然能夠生成一句話,我們也就能生成一段動作。這是我們最近做的,我們在想,我們既然能夠生成很生動的一句話,我們是不是能生成一個很生動的舞蹈。第一步我們先生成一些簡單的動作,大家在這裡看到的所有這些都是計算機自己生成出來的,不是我們寫個程序把它描述出來的。這個更精彩一點,也是純計算機自動生成。
對剛才的分享,我再總結一下,在過去幾年,我們看到人工智慧也好,深度學習也好,有一個非常突飛猛進的發展,這種發展是體現在標準數據集上準確率的提升,體現在很多商用場景的落地。
但是我們回過頭來看這一段發展的歷程,我們可以看到其實我們在朝著GDP、準確率高歌猛進的過程中,其實遺忘了很多東西,我們的效率是不是足夠高,我們是不是在透支數據標註的成本,我們訓練出來的模型是不是真正能夠滿足現實生活中對品質的要求,從這些角度來看,我覺得我們也剛剛在起步。雖然我們實驗室還有世界上其它很多實驗室的探索取得了一些重要的進展,但是我們還僅僅是處在一個起步的階段,在我們的前面還有很長的路要走,希望跟大家共勉。(文|twinkle)
※沃爾瑪出售巴西股份 國際市場輾轉求生
※微軟開發無人商店自動結賬技術 挑戰亞馬遜
TAG:億邦動力網 |