當前位置:
首頁 > 知識 > CVPR 2019 論文解讀精選

CVPR 2019 論文解讀精選

CVPR 2019 即將開幕啦,作為計算機視覺領域最重要的頂會之一,備受廣大學術青年們的關注。官方也已經開放了全部論文的下載(想要論文集合的可以看這裡:https://ai.yanxishe.com/page/resourceDetail/845),在CVPR 2019接收結果公布後,出現了許多優秀的論文解讀,為方便大家閱讀,特開設此帖希望可以實時跟進和匯總CVPR2019 的優秀論文解讀文章,以下是解讀文章,歡迎收藏閱讀~

14【CVPR 2019 論文解讀】人大 ML 研究組提出新的視頻測謊演算法

Brief:該論文提出了一種新穎的視頻測謊演算法,這種演算法只需要少量的視頻數據進行訓練,並在訓練後對短視頻進行測試。實驗結果顯示,該測謊演算法的準確率高達 90% 以上,同時在結合語音和 word2vec 信息後,這一準確率可以進一步提高至 95% 以上。

鏈接:https://ai.yanxishe.com/page/reportDetail/13405

13【CVPR2019論文解讀】具有高標籤利用率的圖濾波半監督學習方法

Brief:《Label-Efficient Semi-Supervised Learning via Graph Filtering》一文研究了半監督學習問題,作者們提出了一種基於圖濾波的半監督學習框架,並利用該框架對兩種典型的圖半監督分類方法LP和GCN進行了改進,新的方法不僅能同時利用圖的連接信息和節點的特徵信息,還能提高標籤的利用效率,文中提出的改進方法在所有的實驗數據集上都取得了最好的效果。作者用圖濾波框架統一了看起來完全不同的LP和GCN,其「低通濾波」的觀點精鍊地解釋了這兩種方法在實際應用中奏效的原因,提高了研究者對於此類方法的認知水平。

鏈接:https://ai.yanxishe.com/page/postDetail/11483

12【CVPR2019論文解讀】基於多級神經紋理遷移的圖像超分辨方法 (Adobe Research)

Brief:超分辨(Super-Resolution)圖像恢復旨在從低分辨模糊圖像中恢復出高分辨的清晰圖像,是計算機視覺中的一個重要任務,在工業界有非常強的應用前景。CVPR是圖像超分辨研究的集中地之一,光今年錄用的超分辨及相關研究方向的論文就不下10篇。本文解讀其中一篇由Adobe研究院為一作發表的超分辨研究方向的論文。

鏈接:https://ai.yanxishe.com/page/postDetail/11551

11【CVPR 2019論文解讀】最新高效卷積方式HetConv

Brief:文章提出了一種新的高效卷積方式:HetConv,在CIFAR10、ImageNet等數據集超過了標準卷積以及DW PW的高效卷積組合形式,取得了更高的分類性能。

鏈接:https://ai.yanxishe.com/page/postDetail/11232

10【CVPR19 Oral論文解讀】利用事件相機將模糊視頻還原成高速清晰視頻

Brief:該文利用了目前火熱的事件相機,巧妙的利用多感測器之間的互補特性,且具有很好的推廣應用價值。過去大家做圖像的去模糊,一般只會考慮普通相機採集到的圖片,通過估計模糊的核函數,來為圖像做去模糊,而這裡引入了一個高速的事件相機,通過兩個有互補特性的sensor, 為其特性和兩者採集數據之間的關係進行建模,把問題formulate成一個簡單的非凸優化的問題,

鏈接:https://ai.yanxishe.com/page/postDetail/11576

09【CVPR19 Oral論文解讀 】PlaneRCNN

Brief:本文提出了一種深度神經結構PlaneRCNN,用於檢測和重建分段平面從一個RGB圖像。PlaneRCNN使用了一個變型的掩模R-CNN檢測平面與他們的平面參數和分割掩碼。PlaneRCNN然後共同用一個新的損失強制細化所有的分割掩碼訓練過程中與附近視野的一致性。本文還提出了一種更細粒度的基準測試方法地面真值的平面分割,其中,PlaneRCNN優於現有的最先進的方法在平面檢測、分割等方面有較大的優勢,和重建指標。PlaneRCNN做了一個重要的向魯棒平面提取邁進,這將對廣泛的應用程序有直接的影響包括機器人、增強現實和虛擬現實。

鏈接:https://ai.yanxishe.com/page/postDetail/11463

08【CVPR2019 Oral 論文解讀】百度提出關於網路壓縮和加速的新剪枝演算法

Brief:百度關於網路壓縮和加速的論文《 Filter Pruning via Geometric Median for Deep Convolutional Neural Networks Acceleration》被 CCF A 類學術會議 CVPR 2019 收錄為 Oral 論文,這篇論文提出了新的基於濾波器的幾何中心(geometric median)的剪枝演算法,來對神經網路進行壓縮和加速。本文是論文作者之一何洋為AI 科技評論提供的論文解讀。

鏈接:https://ai.yanxishe.com/page/postDetail/11633

07【CVPR 2019 Oral 論文解讀】無監督域適應語義分割

Brief:《Taking A Closer Look at Domain Shift: Category-level Adversaries for Semantics Consistent Domain Adaptation》引入了聯合訓練結合對抗學習的設計,在無監督域適應語義分割任務中取得了較好的實驗結果。該演算法能應用前景廣泛,比如能夠很好地應用到自動駕駛中,讓車輛在不同的駕駛環境中也能保持魯棒的街景識別率。

鏈接:https://ai.yanxishe.com/page/postDetail/11631

06【CVPR2019 Oral論文】SideWindow Filtering 介紹

Brief:這篇文章的思想源於我的博士論文,可以參考基於曲率的圖像處理。博士畢業以後,我也陸陸續續寫了一些關於半窗口濾波的論文,比如曲率濾波,Bernstein濾波,Sub-window Box Filter (VCIP2018論文鏈接),Generic Geometric Prior (GGP)等等。但是這次CVPR的論文使得子窗口回歸站到了更大的學術舞台上。

鏈接:https://ai.yanxishe.com/page/postDetail/11577

05CVPR 2019 | 智能體張量融合,一種保持空間結構信息的軌跡預測

Brief:本文是計算機視覺領域國際頂級會議 CVPR 2019 入選論文《Multi Agent Tensor Fusion for Contextual Trajectory Prediction》的解讀。該論文由 MIT 支持的自動駕駛初創公司 ISEE Inc,北京大學王亦洲課題組,UCLA,以及 MIT CSAIL 合作共同完成。該論文主要提出了一種基於深度學習的車輛和行人軌跡預測方法,提出了一個可以保持空間結構信息的多智能體張量融合網路,在機動車駕駛和行人軌跡數據集中對模型的性能進行了驗證。

鏈接:https://ai.yanxishe.com/page/postDetail/13359

04萬字長文詳解騰訊優圖 CVPR 2019 入選論文

Brief:今年有超過 5165 篇的大會論文投稿,最終錄取 1299 篇。此次,騰訊公司有超過 58 篇論文被本屆 CVPR 接收,其中騰訊優圖實驗室 25 篇、騰訊 AI Lab 33 篇,以下便是對騰訊優圖實驗室 25 篇被錄用論文的詳細介紹。

鏈接:https://ai.yanxishe.com/page/postDetail/10308

03CVPR 2019 召開在即,亮風台端到端的投影儀光學補償入選 oral 論文

Brief:《End-to-end Projector Photometric Compensation》的貢獻主要在以下幾點:

1.首次將投影儀光學補償問題闡述為一個端到端的深度學習問題,然後構造一個新穎的名為 CompenNet 的卷積神經網路(CNN)來隱式的學習這個複雜的補償函數。

2.首次提出一個獨立於設備和實際投影的資料庫和評價基準,今後類似的工作可以在這個評價基準上統一比較,而不需要復現該研究中使用的設備和實際投影,以前的工作是沒有這樣的評價基準的。

3.提供了一個預訓練的方法,將預訓練好的 CompenNet 遷移到新的投影屏幕和硬體設置上,只需要拍攝少量的採樣圖片就可以媲美甚至超過從零開始訓練 CompenNet 和傳統方法,這樣可以大量的節省採樣圖拍攝時間和訓練時間。

4.在亮風台提出的評價基準上比較了 CompenNet 和其他傳統的方法,以及一個通用的圖到圖遷移的深度學習框架 pix2pix,實驗結果顯示在數值和質量效果上新方法都大幅度優於其他參與比較的方法。

鏈接:https://ai.yanxishe.com/page/reportDetail/13399

02王威廉組滿分CVPR論文:遵照自然語言指令的室內導航

Brief:視覺-語言導航(Vision-language navigation,VLN)任務是指在真實的三維環境中讓具有實體的智能體進行導航並完成自然語言指令。在這篇論文中,作者們研究了如何解決這個任務中的三個重點挑戰:跨模態參照,糟糕的反饋,以及泛化問題。作者們首先提出了一種新的強化跨模態匹配(RCM)方法,它可以通過強化學習的方式同時促進局部和全局的跨模態參照。具體來說,他們使用了一個匹配指標,它成為了鼓勵模型增強外部指令和運動軌跡之間匹配的固有反饋;模型也使用了一個推理導航器,它用來在局部視覺場景中執行跨模態參照。在一個 VLN benchmark 數據集上進行的評估結果表明,作者們提出的 RCM 模型大幅超越已有模型,SPL 分數提高了 10%,成為了新的 SOTA。為了提高學習到的策略的泛化性,作者們還進一步提出了一個自監督模仿學習(SIL)方法,通過模仿自己以往的良好決策的方式探索未曾見過的環境。作者們表明了 SIL 可以逼近出更好、更高效的策略,這極大程度減小了智能體在見過和未見過的環境中的成功率表現的差別(從 30.7% 降低到 11.7%)。

鏈接:https://ai.yanxishe.com/page/postDetail/10187

01Siamese:CVPR 2019 接收論文作者為你解讀視頻跟蹤領域

鏈接:https://ai.yanxishe.com/page/reportDetail/13404

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI研習社 的精彩文章:

NLP與NLU:從語言理解到語言處理
多圖演示高效的神經架構搜索

TAG:AI研習社 |