當前位置:
首頁 > 新聞 > ImageNet挑戰賽最後一屆,中國團隊又血拚了好多第一

ImageNet挑戰賽最後一屆,中國團隊又血拚了好多第一

導語:ImageNet大規模圖像識別挑戰賽最後一屆,奇虎360團隊,南京信息工程大學團隊,自動駕駛Momenta團隊分別獲單項獎第一.

本文作者:楊文

雷鋒網(公眾號:雷鋒網)AI科技評論按:計算機視覺領域權威評測ImageNet大規模圖像識別挑戰賽(Large Scale Visual Recognition Challenge)自2010年開始舉辦以來,一直備受關注。2016年,在該比賽的圖像目標檢測任務中,國內隊伍大放異彩,包攬該任務前五名,而在今年的 ILSVRC 2017,多個國內院校和企業在各個比賽項目上同樣取得了非常不錯的成績。

雷鋒網了解到,今年挑戰賽共分為三大部分,包括:物體檢測(識別)、物體定位、視頻中目標物體檢測。在昨天,大賽公布了演算法排名結果,奇虎和南京信息工程大學團隊分別在物體定位和物體檢測項目上取得了最佳成績。國內自動駕駛公司Momenta 研發團隊(WMW)的孫剛和胡傑與來自牛津大學的申麗合作,提出SE架構,以2.3%的識別錯誤率榮獲物體識別冠軍。

奇虎360團隊

奇虎360和新加坡國立大學組隊,成立NUS-Qihoo_DPNs (DET)團隊。

奇虎360成員: Jian Dong, 顏水成。

新加坡國立大學成員:Yunchao Wei, Mengdan Zhang, Jianan Li, Yunpeng Chen, Jiashi Feng。

他們在基於 Faster R-CNN 的目標檢測任務中,採用了一個包含全新雙路徑拓撲的雙路徑網路(DPN/Dual Path Network)。DPN 中的特徵共享機制和探索新特徵的靈活性在目標檢測中被證明有效。研究人員還採用了若干個 DPN 模型,即 DPN-92、DPN-107、DPN-131 等,作為 Faster R-CNN 框架中的中繼特徵學習器(trunk feature learner)和頭分類器(head classifier)。他們只使用最多 131 層的網路,因為在大多數常用的 GPU 內,它易於訓練和適應,且性能良好。對於區域提案生成,利用低級細粒度特徵取得了有效的 proposals 召回。進而,通過在分割成檢測框架中採用擴展卷積,他們合併了有益的語境信息。在測試期間,他們設計了一個類別加權策略,以探索不同類別的專家模型,並根據多任務推斷把權重用到不同的專家。除此之外,他們在圖像分類任務中採用了預訓練的模型以提取整體語境信息,這可在整體輸入圖像中為探測結果的推理提供有益的線索。

南京信息工程大學團隊

南京信息工程大學與帝國理工大學搭檔,成立BDAT團隊,在第一輪用提供的的訓練數據進行物體檢測,前三名都被BDAT團隊拿下。

南京信息工程大學成員:Hui Shuai、Zhenbo Yu、Qingshan Liu、 Xiaotong Yuan、Kaihua Zhang、Yisheng Zhu、Guangcan Liu 和 Jing Yang

帝國理工學院成員:Yuxiang Zhou、Jiankang Deng

該團隊表示他們在 LOC 任務中使用了適應性注意力機制和深度聯合卷積模型 。Scale、context、採樣和深度聯合卷積網路在 DET 任務中得到了有效的使用。同時他們的得分排名也使用了物體概率估計。

自動駕駛技術Momenta團隊

國內自動駕駛技術公司Momenta 研發團隊的孫剛和胡傑與來自牛津大學的申麗合作,組成WMW團隊。

WMW團隊提出了一種新的機制稱為Squeeze & Excitation(簡稱SE),以此來大幅提升模型的精度。它通過引入全局圖像的信息自動對卷積特徵重新分配權重,增強對分類有用的特徵,而抑制無效或收益甚微的特徵。在只引入極少的計算量和參數量的情況下,可以將現有的絕大多數CNN的性能進行大幅提升。團隊成員之一孫剛表示,「這個框架下計算量與ResNet50 相當的網路可以達到ResNet101 的性能。

接下來是分別對所有參賽團隊進行物體檢測(識別)、物體定位、視頻中目標物體檢測技術的評測。

物體檢測(識別)

a:使用提供的訓練數據進行目標檢測表現

一,根據檢測出的目標數量排序

二,根據檢測的平均準確率排序

小結:在給定的訓練數據,南京信息工程大學團隊BDAT在兩次排名中都名列第一。所以在物體檢測上BDAT更勝一籌。

b:使用額外的訓練數據進行目標檢測(圖一檢測出的目標數量排序,圖二檢測的平均準確率排序)

圖一

圖二

小結:BDAT團隊在額外的訓練數據進行目標檢測,依然是佔據前兩名。第三名是奇虎360團隊,在目標檢測任務中也表現良好。

物體定位

a: 使用提供的訓練數據進行分類+定位:以定位錯誤率排序,錯誤率低的靠前

以分類錯誤率排名(錯誤率低的靠前)

奇虎360團隊在定位錯誤率上排名第一,也就是說定位最準確,錯誤率僅為0.062263。這歸結於360和新加坡國立大學共同提出了一個包含全新雙路徑拓撲的雙路徑網路(DPN/Dual Path Network)。第二名、第三名則是來自 Trimps-Soushen(公安部三所)。

而從分類誤差率的排名來看,自動駕駛技術Momenta團隊的分類錯誤率最低,他們WMW團隊提出了一種新的機制稱為Squeeze & Excitation(簡稱SE),大幅度提升了模型的精度。

b: 在接下來使用額外數據來進行分類和定位的任務中,奇虎360團隊,兩次排名的錯誤率都是最低,其次是南京信息工程大學團隊BDAT。

視頻目標檢測

a: 使用提供的訓練數據進行視頻目標檢測(分別根據檢測出來的目標種類和平均精準度排名)

在這場測試中,只有奇虎360團隊表現相對不錯,而南京信息工程大學團隊和Momenta團隊都沒有進入前五名,第一名是由來自帝國理工學院和悉尼大學所組成的 IC&USYD 團隊獲得。奇虎360團隊在視頻目標檢測任務中表現優異是因為他們的模型主要是基於 Faster R-CNN 並使用雙路徑網路作為支柱,採用了三種 DPN 模型(即 DPN-96、DPN-107 和 DPN-131)和 Faster R-CNN 框架下的頂部分類器作為特徵學習器。

b: 使用額外的訓練數據進行視頻目標檢測

使用額外的訓練數據進行視頻目標檢測和使用提供的訓練數據檢測,效果差不多,依然是帝國理工學院和悉尼大學團隊IC&USYD取得的成績最好,其次是奇虎360團隊。

雷鋒網小結:ILSVRC 2017是ImageNet 競賽的最後一次,中國代表團體在最後的這場比賽中,依然賽出了自己的水平,沒有留下遺憾。今後WebVision Challenge將會替代ILSVRC,雖然WebVision 中的數據比人工標記的ImageNet擁有更多的雜訊,但他的數據更多是從網路中獲取,因此成本也要低很多。另外從2016 年 ILSVRC 的圖像識別錯誤率已經達到約 2.9%,遠遠超越人類的5.1%,這類競賽已經完成了它的歷史使命,失去了存在的意義。未來,計算機視覺的重點在圖像理解。最後,讓我們記住此次中國團隊在比賽中取得的輝煌成績吧!同時也期望在新的賽場依然能風采依舊!

雷鋒網原創文章,轉載請至雷鋒網官網申請授權。歡迎熱情討論,轉發分享~


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

Uber 員工生存狀態大調查:狼性文化成了員工無法承受之重
以企業版的名義,Google Glass 宣布回歸!
Embark又拿了1500萬美元,勢要與自動駕駛卡車死磕到底!
三星宣布回收利用Note 7零部件,官方:為了環保
Google Glass 又回來了;郵政局建 「國家版菜鳥」;三星重新利用 Note 7 零件 | 雷鋒早報

TAG:雷鋒網 |

您可能感興趣

何愷明團隊新作ResNext:Instagram圖片預訓練挑戰ImageNet新精度
AI Challenger設300萬獎金打造「中國版ImageNet」,國內最大規模深度學習數據集上線
ImageNet 帶來的預訓練模型之風,馬上要吹進 NLP 領域了
Ian Goodfellow等提出自注意力GAN,ImageNet圖像合成獲最優結果
現在,所有人都可以在18分鐘內訓練ImageNet了
Computer Vision 雜誌對何愷明 Rethinking ImageNet Pre-training 的最新評論
二階優化!訓練ImageNet僅需35個Epoch
ImageNet分類器可以泛化到ImageNet上嗎?
Pre-training到底有沒有用?何愷明等人新作:Rethinking ImageNet Pre-training
NLP領域的ImageNet時代到來:詞嵌入「已死」,語言模型當立
224秒訓練ImageNet!這次創紀錄的是索尼大法
224秒!ImageNet上訓練ResNet-50最佳戰績出爐,索尼下血本破紀錄
TPU加AutoML:50美元快速訓練高效的ImageNet圖像分類網路
18 分鐘訓練ImageNet復現代碼
索尼大法好,224秒在ImageNet上搞定ResNet-50
沒有最快,只有更快!富士通74.7秒在ImageNet上訓練完ResNet-50
谷歌刷新世界紀錄!2分鐘搞定 ImageNet 訓練
6分鐘完成ImageNet訓練,英偉達創下六項AI性能新記錄
學界|CIFAR-10+ImageNet=?CINIC-10!
CIFAR-10+ImageNet=?CINIC-10!