當前位置:
首頁 > 新聞 > 本次CVPR上,李飛飛團隊都中了哪8篇論文? | CVPR 2017

本次CVPR上,李飛飛團隊都中了哪8篇論文? | CVPR 2017

本次CVPR上,李飛飛團隊都中了哪8篇論文? | CVPR 2017

CVPR是IEEE一年一度的計算機視覺與模式識別技術會議,也是計算機視覺的世界三大頂會之一。2017年的CVPR會議將於7月21日到26日於夏威夷Convention中心召開,雷鋒網將赴前線做覆蓋與報道。

李飛飛就職於斯坦福大學計算機科學系,目前為斯坦福大學人工智慧實驗室、斯坦福視覺實驗室、豐田汽車-斯坦福人工智慧研究中心負責人,同時也是Google雲端人工智慧暨機器學習首席科學家。

本次CVPR上,李飛飛團隊共有8篇論文成功入選,以下是CVPR 2017 Li Fei Fei作為作者的論文摘要,雷鋒網AI科技評論做了編譯和整理。

生成圖像描述性段落的層級方法 (A Hierarchical Approach for Generating Descriptive Image Paragraphs)

作者:Jonathan Krause, Justin Johnson, Ranjay Krishna, Li Fei-Fei

最新的為圖像生成字幕的方法可以生成以自然語言描述圖像的句子,但是將圖像的所有信息壓縮為單個句子,這樣僅能粗略地描述圖像的視覺內容。還有一種新型字幕方法:密集字幕方法(dense captioning),可以通過在圖像中標註許多區域來潛在地描述更精細的圖像細節,但是該方法不能為圖像產生連貫的故事。在本論文中,研究者通過生成描述圖像的整個段落來克服這些限制,該方法能夠描述詳細統一的故事。研究者開發了一個將圖像和段落分解為其組成部分的模型,檢測圖像中的語義區域,並使用層級循環神經網路對語言進行推理。語言分析證明了段落生成任務的複雜性,對圖像和段落對的新數據集的實驗證明了該方法的有效性。

論文地址:https://arxiv.org/abs/1611.06607

通過迭代查詢獲取視覺問題的知識獲取(Knowledge Acquisition for Visual Question Answering via Iterative Querying)

作者:Yuke Zhu, Joseph J. Lim, Li Fei-Fei

人類具有學習新技能和新知識以解決問題的非凡能力。自動模式也需要這種學習能力來處理視覺世界中任意的、開放式的問題。研究者提出了一種基於神經的方法來獲取視覺問答(VQA, visual question answering)的任務驅動信息。該模型提出了從外部輔助數據積極獲取相關信息的查詢方法。來自人工策劃或自動來源的支持證據被編碼並存儲到存儲器中。獲取任務驅動的證據有效地提高了在Visual7W和VQA數據集上的模型性能;此外,這些查詢在該迭代QA模型中提供了一定程度的可解釋性。

論文地址:http://people.csail.mit.edu/lim/paper/zlf_cvpr2017.pdf

使用個人中心多模態信號的能量支出與活動的聯合學習(Jointly Learning Energy Expenditures and Activities Using Egocentric Multimodal Signals)

作者:Katsuyuki Nakamura, Serena Yeung, Alexandre Alahi, Li Fei-Fei

生理信號,如心率可以提供有關個人狀態和活動的有價值信息。然而,現有的計算機視覺工作尚未探索利用這些信號來增強個人中心視頻(egocentric video)的理解。Egocentric video是人體可穿戴設備所拍攝出的視頻,與一般的視頻不同,這種視頻的獨有特徵為播放時間長,持續性強(無鏡頭切換)。在這項工作中,研究者提出了一個基於多模態數據進行推理的模型,聯合預測預測正在進行的活動以及能量支出。研究者使用心率信號作為特權自我監督(privileged self-supervision),以得到訓練狀態中的能量支出。一個多任務的目標函數被用於聯合優化這兩個任務。另外,研究者引入了一個31小時的包含心率和加速度信號的個人中心視頻數據集。該研究能夠引出一些新的應用,例如視覺卡路里計數器。

論文地址:http://vision.stanford.edu/pdf/nakamura2017cvpr.pdf

視頻長期動態運動的無監督學習(Unsupervised Learning of Long-Term Motion Dynamics for Videos)

作者:Zelun Luo, Boya Peng, De-An Huang, Alexandre Alahi, Li Fei-Fei

研究者提出一種無監督的表示學習方法,可以緊密地編碼視頻中運動的依賴關係。給定一個來自視頻剪輯的圖像,我們的框架可以學習預測長期的3D動作。為了減少學習框架的複雜性,研究者提出將運動描述為RGB-D模態計算的原子3D流序列。研究者使用基於循環神經網路的編碼器-解碼器框架來預測這些流程序列。為了使解碼器能夠重建這些序列,編碼器必須學習一個穩定的視頻表示,捕獲長期運動依賴性和空間-時間關係。研究者展示了學習到的時間表示對跨越多個模態和數據集(如NTU RGB+D和MSR Daily Activity 3D)的動作分類的有效性。該框架通用於任何輸入模式,例如RGB,深度,和RGB-D視頻

論文地址:https://arxiv.org/abs/1701.01821

學習如何從嘈雜的網路視頻中學習 (Learning to Learn from Noisy Web Videos )

作者:Serena Yeung, Vignesh Ramanathan, Olga Russakovsky, Liyue Shen, Greg Mori, Li Fei-Fei

如何理解既多樣化又有複雜細粒度的人類行為是計算機視覺中的一個關鍵的開放性問題。手動標註訓練視頻對於一些動作類是可行的,但是不能擴展到完全長尾分布的動作。解決這個問題的一個可行的方法是使用半監督或「網路監督」的方法,利用網路查詢的嘈雜數據來學習新的動作。然而,這些方法通常不會學習特定領域的知識,或者依賴於迭代的手工調整數據標籤策略。在該工作中,研究者提出了一種基於強化學習的公式,從嘈雜的網路搜索結果中選擇訓練分類器的正確樣本。該方法使用Q學習來學習一個小標註訓練數據集上的數據標註策略,然後使用它來自動標註嘈雜的網路數據,以獲得新的視覺概念。在具有挑戰性的Sports-1M action recognition benchmark以及其他細粒度的新動作類中,該方法能夠為嘈雜數據學習良好的標註策略,並使用它來學習準確的視覺概念分類器。

論文地址:https://arxiv.org/abs/1706.02884

教學視頻中無監督的視覺-語言參考解決方案(Unsupervised Visual-Linguistic Reference Resolution in Instructional Videos )

作者:De-An Huang, Joseph J. Lim, Li Fei-Fei, Juan Carlos Niebles

研究者提出了一個在教學視頻中使用無監督方法參考解決方案(reference resolution),其目的是將視頻上下文中提到實體與作用在它身上的動作聯繫起來。人類經常從帶有講解的視頻中學習各種知識,比如如何拿住刀來切土豆,這些視頻中通常有語言(字幕)提示以幫助學習。為了使機器也有同樣的能力,理解視頻中的實體和動作是必要的。該問題的關鍵挑戰是視頻中實體的外觀和指代名稱的變化導致的不可避免的視覺-語義模糊。比如將酸奶淋在蔬菜上,酸奶的外觀發生變化,同時酸奶的指代名稱也由「酸奶」變為「調料」。研究者想要使用無監督的方法解決該問題,從而進一步擴大了這個挑戰。研究者通過學習一個聯合的視覺-語言模型來解決這些挑戰,其中語言提示可以幫助解決視覺歧義,反之亦然。研究者通過使用來自YouTube的兩千多個非結構化烹飪視頻來無障礙的學習該模型以驗證該方法,結果顯示該視覺語言模型相較於目前在教學視頻中reference resolution最好的語言模型有巨大的提升。

論文地址: https://arxiv.org/pdf/1703.02521.pdf

CLEVR:組合語言和基本視覺推理的診斷數據集(CLEVR: A Diagnostic Dataset for Compositional Language and Elementary Visual Reasoning )

作者:Justin Johnson, Bharath Hariharan, Laurens van der Maaten, Li Fei-Fei, C. Lawrence Zitnick,Ross Girshick

在建立可以推理和回答關於視覺數據問題的人工智慧系統時,需要進行診斷測試來分析研究進展,並發現缺點。視覺問答現有的基準在這方面有些幫助,但存在很強的偏差,導致模型可以利用偏差來正確的回答問題,而無需推理。這些基準也混淆了多個錯誤來源,導致很難定位模型弱點的來源。研究人員提供了一個測試一系列視覺推理能力的診斷數據集。它包含最小的偏差,並具有描述每個問題需要的推理類型的詳細注釋。研究這可以使用這個數據集來分析各種現代視覺推理系統,為他們的能力和限制提供新的見解。

論文地址:https://arxiv.org/pdf/1612.06890.pdf

通過迭代信息傳遞的場景圖生成(Scene Graph Generation by Iterative Message Passing )

作者:Danfei Xu, Yuke Zhu, Christopher B. Choy, Li Fei-Fei

理解一個視覺場景的任務難度遠超越了單獨識別個別物體。物體之間的關係也構成了關於場景的豐富語義信息。在這項工作中,研究者使用場景圖(一個視覺的圖像圖形結構)來明確地對物體及其關係進行建模。研究者提出一種從輸入圖像生成這種結構化場景表示的新穎的端對端模型。該模型使用標準RNN解決場景圖的推理問題,並學習通過消息傳遞迭代地改進其預測。該聯合推理模型可以利用上下文線索來對物體及其關係做出更好的預測。實驗表明,該模型顯著優於先前使用Visual Genome數據集生成場景圖的方法。

論文地址:https://arxiv.org/abs/1701.02426

雷鋒網整理編譯

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

ARKit新玩法:手機拍完照片就凝固在空中了!
市值超過 2900 億的海康威視半年凈利潤 32.92 億元,同比增長 26.22%
資不抵債,是什麼造成了Pepper機器人的困窘?
一樁事先張揚的吞併案——孫宏斌終成樂視董事長

TAG:雷鋒網 |

您可能感興趣

CVPR 2019收錄論文ID公開,你上榜了嗎?
300篇 CVPR 2019 Oral 論文精選匯總,值得一看的 CV 論文都在這裡
2018谷歌學術影響因子發布:NIPS首次躍進Top 100,CVPR排名泛AI領域第一
Siamese:CVPR 2019 接收論文作者為你解讀視頻跟蹤領域 | CVPR 2019
CVPR 2019 論文解讀:人大 ML 研究組提出新的視頻測謊演算法 | CVPR 2019
CVPR 2018 最酷的十篇論文
CVPR 2018:十大最酷論文
華人包攬CVPR 2019最佳論文,李飛飛ImageNet成就經典
曠視14篇CVPR 2019論文,都有哪些亮點?
CVPR 2018現場見聞
LPIRC,不思議-2018年CVPR行記
CVPR 2018 論文解讀
CV 屆的金雞百花獎:盤點我心中的 CVPR 2018 創意 TOP10
HCP Lab 12篇論文入選世界頂級計算機視覺會議 CVPR 2019
CVPR 2018 中國論文分享會之「GAN 與合成」
CVPR 2018摘要:第一部分
谷歌2019 學術指標發榜:CVPR首進Top 10,何愷明論文引用最高
CVPR 2018:用GAN預測20年後你長什麼樣
CVPR 2019 | PointConv:在點雲上高效實現卷積操作
2018谷歌學術影響力排名出爐:CVPR進入前20,ResNet被引最多過萬次!