CVPR 2019接收論文公布:共1300篇,接收率降4%,你中了沒?
銅靈 發自 凹非寺
量子位 出品 | 公眾號 QbitAI
這一天終於來了。
昨天,一年一度的視覺頂會CVPR放出了今年的接收論文。翹首以盼多日的CV er紛紛前來圍觀,場面一下子好生熱鬧。
官網數據顯示,本屆CVPR大會共收到5265篇有效投稿,共接收論文1300篇,接收率為25.2%。
目前放出的只有接收論文的ID,組委會表示,Oral、Spotlight和Poster論文的評審結果改日再放。
接收論文編號在此,來看看你的論文ID在不在裡面:
http://cvpr2019.thecvf.com/files/cvpr_2019_final_accept_list.txt
人氣連年上升
Github用戶t-taniai統計了從2019年來CVPR的接收數據,可以窺見CVPR 2019的接收趨勢。
數據中可看出,CVPR 2019的人氣值從2011年起逐年上漲,提交論文數只增不減。
並且,今年的增長數量尤其多,從2018年的3359篇有效提交論文直接漲到5265篇,提交數量增加了56%。
可能也和申請人數的激增有關,CVPR論文接收率從去年的29.1%直接降至25.15%,成為史上接收率下降最嚴重的一年。
那麼,論文的ID與接收結果的關係如何,早早提交論文會不會「中獎」幾率要大一些?
那倒沒有。推特用戶Abhishek Das?統計了今年接收論文的ID,結果發現,ID編號與接收關係不大,每個區間的論文數量相差不大。
作為視覺領域的國際頂會,CVPR 2019的一舉一動都牽動著CV er的心。
今年的CVPR將於6月16-6月20日在美國加州長灘市舉辦,為期5天。
CVPR大會目前還未放出議程,官網顯示Demo的接收日期截止到3月31日,4月15日公布接收Demo,6月18-20號演示Demo。
部分接收論文
結果放出後,投中的網友熱情曬出了自己團隊的接收論文表示慶祝,其中不乏有我們平日經常見到的熟悉身影。量子位收集了部分論文,好研究提前看:
An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition(模式識別國家重點實驗室、中科院、中國科學院大學、中國科學技術大學)
地址:
https://128.84.21.199/abs/1902.09130
DenseFusion: 6D Object Pose Estimation by Iterative Dense Fusion(斯坦福大學,李飛飛夫婦參與)
地址:
https://arxiv.org/abs/1901.04780
EELVOS: Fast End-to-End Embedding Learning for Video Object Segmentation(RWTH Aachen University,谷歌)
地址:
https://128.84.21.199/abs/1902.09513
Attention-guided Unified Network for Panoptic Segmentation(中國科學院大學)
地址:
https://arxiv.org/abs/1812.03904
Deep High-Resolution Representation Learning for Human Pose Estimation(中國科學技術大學、微軟亞洲研究院)
地址:
https://128.84.21.199/abs/1902.09212
Taking A Closer Look at Domain Shift: Category-level Adversaries for Semantics Consistent Domain Adaptation(杭州科技大學、悉尼科技大學等)
地址:
https://arxiv.org/abs/1809.09478
InverseRenderNet: Learning single image inverse rendering(約克大學)
地址:
https://arxiv.org/abs/1811.12328
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vision-Language Navigation(加州大學,微軟研究院,杜克大學)
地址:
https://arxiv.org/abs/1811.10092
GANFIT: Generative Adversarial Network Fitting for High Fidelity 3D Face Reconstruction(倫敦帝國理工學院等)
地址:
https://arxiv.org/abs/1902.05978
Variational Bayesian Dropout(武漢大學,阿德萊德大學)
地址:
https://arxiv.org/abs/1811.07533
LiFF: Light Field Features in Scale and Depth(斯坦福大學,悉尼大學)
地址:
https://arxiv.org/abs/1901.03916
Classification-Reconstruction Learning for Open-Set Recognition(東京大學、Data61-CSIRO、澳大利亞國立大學)
地址:
https://arxiv.org/abs/1812.04246
Improving the Performance of Unimodal Dynamic Hand-Gesture Recognition with Multimodal Training(Rutgers University、微軟等)
地址:
https://arxiv.org/abs/1812.06145
如果你的論文也被接收了,歡迎在評論區留下論文介紹與地址,等你來!
傳送門
CVPR2019官網首頁:
http://cvpr2019.thecvf.com/
CVPR各種統計數據:
https://taniai.space/cvconf/
接收論文ID趨勢統計:
https://twitter.com/abhshkdz/status/1099855206744051712
接收論文編號地址:
http://cvpr2019.thecvf.com/files/cvpr_2019_final_accept_list.txt
—完—
加入社群
量子位現開放「AI 行業」社群,面向AI行業相關從業者,技術、產品等人員,根據所在行業可選擇相應行業社群,在量子位公眾號(QbitAI)對話界面回復關鍵詞「行業群」,獲取入群方式。行業群會有審核,敬請諒解。
此外,量子位AI社群正在招募,歡迎對AI感興趣的同學,在量子位公眾號(QbitAI)對話界面回復關鍵字「交流群」,獲取入群方式。
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
喜歡就點「好看」吧 !
※不用寫代碼,就能訓練測試深度學習模型!Uber開源AI工具箱Ludwig
TAG:量子位 |