1300篇!CVPR 2019錄取結果公布,7篇新鮮好文推薦
新智元報道
來源:Twitter
編輯:三石、肖琴
【新智元導讀】近日,CVPR 2019發布接收論文ID列表,共計1300篇論文被接收,接受率為25.2%。眾多學術機構、高校及個人已然按耐不住激動的心,紛紛在社交平台上曬出成績。
今年CVPR的接收論文ID公布了!你是否上榜了呢?
前幾日,CVPR 2019 官方推特發布消息公布了本次大會接收論文ID:
接收論文列錶鏈接如下:
http://cvpr2019.thecvf.com/files/cvpr_2019_final_accept_list.txt
https://docs.google.com/spreadsheets/d/1zhpogphsC8rGaexSHUANQeW3ezFV3XiJuO-wayQIIYI/htmlview?sle=true#gid=0
據統計,今年共計1300篇論文被CVPR 2019 接收,相比去年被接收論文數量增加了32.8%。今年的接收率為25.2%。
而此次論文提交數量是5165篇,相比CVPR 2018增加了56%。
Twitter網友Simon Kornblith自製了接收論文ID結果分布圖:
他認為,提交ID與接收論文數之間的關係為:中期>早期>後期。
列表一出,各路神仙紛紛「炫」出亮麗成績單
此表一出,眾人紛紛前去查閱ID,看看自己的論文是否登榜。
而後在Twitter、微博、朋友圈等社交平台上,眾多網友開始曬出自己的成績單:
可以看到眾多學術機構、高校和個人,已然紛紛開始「炫」成績。
相信在接下來的一段時間裡,陸續會有更多人公布自己論文結果了。新智元也會對此結果進行跟進。
下面,我們重點推薦7篇CVPR 2019的新鮮熱文,包括目標檢測、圖像分類、3D目標檢測、3D重建、點雲分割等主題,一睹為快!論文列表來自中科院自動化所博士生朱政的CV arXiv Daily。
CVPR 2019論文推薦
[1] CVPR2019 檢測新文
論文題目:Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression
作者:Hamid Rezatofighi, Nathan Tsoi, JunYoung Gwak, Amir Sadeghian, Ian Reid, Silvio Savarese
論文鏈接:https://arxiv.org/abs/1902.09630
摘 要
Intersection over Union (IoU)是目標檢測基準中最常用的一個評估指標。然而,在優化用於回歸邊界框參數的常用距離損失和最大化這個度量值之間存在差距。對一個指標來說,最佳目標是指標本身。在軸對齊的2D邊界框的情況下,可以證明IoU可以直接作為回歸損失使用。然而,IoU具有平台,使得在不重疊邊界框的情況下進行優化是不可行的。
在這篇論文中,作者通過引入一個generalized version同時作為新損失和新指標來解決IoU的缺陷。通過將這個generalized IoU (GIoU)作為一種損失採用到最新的目標檢測框架中,在PASCAL VOC和MS COCO等流行目標檢測基準得到了性能改進。
[2] CVPR2019 分類新文
論文題目:Learning a Deep ConvNet for Multi-label Classification with Partial Labels
作者:Thibaut Durand, Nazanin Mehrasa, Greg Mori
論文鏈接:https://arxiv.org/abs/1902.09720
摘 要
深度卷積網路(Deep ConvNets)在單標籤圖像分類(如ImageNet)中表現出色,但是有必要超出單標籤分類任務,因為日常生活中的圖像本質上是多標籤的。多標籤分類比單標籤分類更困難,因為輸入圖像和輸出標籤空間都更複雜。此外,與單標籤注釋相比,大規模地收集乾淨的多標籤注釋更難。為了降低標註成本,我們建議訓練帶有部分標籤的模型,即每個圖像只知道部分標籤。
我們首先對不同的標籤策略進行實證比較,證明在多標籤數據集上使用部分標籤的潛力。然後,為了學習部分標籤,我們提出一種新的分類損失,它利用了每個樣本中已知標籤的比例。我們的方法允許使用與使用所有注釋時相同的訓練設置。我們進一步探討了幾種預測缺失標籤的策略。實驗在3個大型多標籤數據集上進行:MS COCO, NUS-WIDE和Open Image。
[3] CVPR2019 3D detection新文
論文題目:Stereo R-CNN based 3D Object Detection for Autonomous Driving
作者:Peiliang Li, Xiaozhi Chen, Shaojie Shen
論文鏈接:https://arxiv.org/abs/1902.09738
摘 要
本文提出一種充分利用立體圖像中稀疏信息和密集信息、語義信息和幾何信息的自動駕駛3D目標檢測方法。我們的方法稱為Stereo R-CNN,它將Faster R-CNN拓展到立體輸入,以同時檢測和關聯左右圖像中的對象。我們的方法不需要深度輸入和3D位置監控,但優於所有現有的基於圖像的全監控方法。在具有挑戰性的KITTI數據集上的實驗表明,我們的方法在3D檢測和3D定位任務上的性能都比此前最先進的方法高出約30% AP。代碼將公開發布。
[4] CVPR2019 3D Reconstruction新文
論文題目:Single-Image Piece-wise Planar 3D Reconstruction via Associative Embedding
作者:Zehao Yu, Jia Zheng, Dongze Lian, Zihan Zhou, Shenghua Gao
論文鏈接:https://arxiv.org/abs/1902.09777
代碼鏈接:https://github.com/svip-lab/PlanarReconstruction
摘 要
單圖像分段平面3D重建的目的是同時分割平面實例和從圖像恢復3D平面參數。最近的方法都是利用卷積神經網路(CNN),並取得了很好的效果。然而,這些方法僅限於檢測具有一定學習順序的固定數量的平面。
為了解決這個問題,我們提出了一種新的基於關聯嵌入的兩階段方法,啟發自最近在實例分割方面的成功。在第一階段,我們訓練CNN將每個像素映射到一個嵌入空間,其中來自相同平面實例的像素具有類似的嵌入。然後,利用一種有效的平均位移聚類演算法對平面區域內的嵌入向量進行分組,得到平面實例。在第二階段,我們通過考慮像素級和實例級的一致性來估計每個平面實例的參數。利用該方法,我們能夠檢測任意數量的平面。在公共數據集上的大量實驗驗證了該方法的有效性。此外,我們的方法在測試時運行速度達到30fps,因此可以促進許多實時應用,如可視化SLAM和人機交互。
[5] CVPR2019 點雲分割新文
論文題目:Associatively Segmenting Instances and Semantics in Point Clouds
作者:Xinlong Wang, Shu Liu, Xiaoyong Shen, Chunhua Shen, Jiaya Jia
論文鏈接:https://arxiv.org/abs/1902.09852
代碼鏈接:https://github.com/WXinlong/ASIS
摘 要
3D點雲準確而直觀地描述了真實場景。到目前為止,如何在這樣一個信息豐富的3D場景中分割各種元素,還很少得到討論。
在本文中,我們首先介紹了一個簡單而靈活的框架,用於同時分割點雲中的實例和語義。然後,我們提出了兩種方法,使兩項任務互相利用,實現雙贏。具體來說,我們通過學習語義感知的point-level實例嵌入,使實例分割受益於語義分割。同時,將屬於同一實例的點的語義特徵融合在一起,從而對每個點更準確地進行語義預測。我們的方法在3D實例分割方面大大優於目前最先進的方法,在3D語義分割方面也有很大的改進。
[6] CVPR2019 點雲分割新文
論文題目:RepNet: Weakly Supervised Training of an Adversarial Reprojection Network for 3D Human Pose Estimation
作者:Bastian Wandt, Bodo Rosenhahn
論文鏈接:https://arxiv.org/abs/1902.09868
摘 要
本文研究了基於單幅圖像的3D人體姿態估計問題。長期以來,人類骨骼是通過滿足reprojection error進行參數化和擬合觀察,但現在研究人員可以直接利用神經網路從觀測結果中推斷出3D姿態。
然而,這些方法大多忽略了必須滿足重投影約束(reprojection constraint)的事實,並且對過擬合很敏感。我們通過忽略2D到3D的對應來解決過擬合問題。這有效地避免了對訓練數據的簡單記憶,並允許弱監督訓練。
本文提出的重投影網路(RepNet)一部分使用對抗性訓練方法來學習從2D姿態分布到3D姿態分布的映射。網路的另一部分對攝像機進行估計。這允許定義一個網路層,該網路層將估計的3D姿態重新投影回2D,從而產生一個重投影損失函數。我們的實驗表明,RepNet可以很好地對未知數據進行泛化,當應用於未知數據時,它的性能優於此前最先進的方法。此外,我們的實現在台式PC上就能實時運行。
[7] CVPR2019 3D Face新文
論文題目:Disentangled Representation Learning for 3D Face Shape
作者:Zi-Hang Jiang, Qianyi Wu, Keyu Chen, Juyong Zhang
論文鏈接:https://arxiv.org/abs/1902.09887
摘 要
本文提出了一種解析3D人臉形狀表示的新策略。具體來說,將給定的3D人臉形狀分解為特徵部分(identity part)和表情部分(expression part),並以非線性方式對其進行編碼和解碼。
為了解決這個問題,我們提出一個3D人臉網格的屬性分解框架。人臉形狀用基於頂點的變形表示,而不是用歐幾里德坐標表示。實驗結果表明,該方法在特徵部分和表情部分的分解上都優於現有方法。與現有方法相比,該方法可以獲得更自然的表情轉換結果。
最後,親愛的讀者們,你們的論文是否也被CVPR 2019接收了呢?留言區快快曬出你們的成績吧!
新智元幫你上牆!
CVPR 2019 接收論文ID列表地址:
http://cvpr2019.thecvf.com/files/cvpr_2019_final_accept_list.txt
https://docs.google.com/spreadsheets/d/1zhpogphsC8rGaexSHUANQeW3ezFV3XiJuO-wayQIIYI/htmlview?sle=true#gid=0
【加入社群】
新智元AI技術 產業社群招募中,歡迎對AI技術 產業落地感興趣的同學,加小助手微信號:aiera2015_2入群;通過審核後我們將邀請進群,加入社群後務必修改群備註(姓名 - 公司 - 職位;專業群審核較嚴,敬請諒解)。
※谷歌開源NLP通用框架,被20多篇最新論文引用
※華為反圍剿正在取得勝利:特朗普改口稱5G應靠競爭而非封殺
TAG:新智元 |