上交大盧策吾團隊AlphaPose更新,頂級性能的實時姿態估計
雷鋒網 AI 科技評論按:今年 2 月,我們報道過上海交通大學盧策吾團隊開源 AlphaPose的消息。
AlphaPose 是一個多人姿態估計系統,具有極高的精準度。據盧策吾團隊介紹, AlphaPose 在姿態估計(Pose Estimation)標準測試集 MSCOCO 上達到 72.3 mAP,是首個超過 70 mAP 的開源系統,比 Mask-RCNN 相對提高 8.2%,比 OpenPose(CMU)相對提高 17%。除此之外,在 MPII 排行榜上,AlphaPose 以 6% 的相對優勢佔據榜首。AlphaPose 基於騰訊優圖和盧策吾團隊在 ICCV 2017 上發表的分區域多人姿態識別演算法(RMPE)。
近日,AlphaPose 迎來一次重大更新。在不損失精度的情況下,他們把識別速度提升到實時。系統採用PyTorch 框架,在姿態估計的標準測試集MSCOCO上,達到 71mAP 的精度,同時,速度達到 20FPS(平均每張圖像中有 4. 6 人)。代碼支持 Linux 和Windows。
各開源框架在MSCOCO上的性能,運行在 1080Ti 單卡上
據盧策吾團隊介紹,新版 AlphaPose 系統,架設在 PyTorch 框架上,得益於 PyTorch 的靈活性,新系統對用戶更加友好,安裝使用過程更加簡易,也方便進行二次開發。同時,系統支持圖片、視頻、攝像頭輸入,實時在線計算出多人的姿態結果。
為了在兼顧速度的同時保持精度,新版 AlphaPose 提出了一個新的姿態估計模型。模型的骨架網路使用 ResNet101,在下採樣部分添加 SE 模塊作為 attention 模塊。除此之外,使用 PixelShuffle 進行3次上採樣,輸出關鍵點的熱度圖,在提高解析度的同時,保持特徵信息不丟失,技術論文會在近期公布。
另一方面,盧策吾本人在知乎上表示,「alphapose 系統接下來計划上線 3D pose,密集人群 pose,超輕量級 pose,pose-action 聯合預測模塊,等等,每一個模塊一般會對應一篇學術論文。MVIG 團隊會持續優化速度,精度。希望能像 Yolo 一樣持續更新成為一個對大家有用的系統。學術上,有新的演算法第一時間更新,並投稿頂級會議。工程上,也會做到方便二次開發。」從這樣的路線圖可以看到,AlphaPose 目標是成為一個對學界、業界都開放、有用的代碼庫,我們也非常期待 AlphaPose 的未來更新。
ICCV 2017 RMPE論文鏈接:
人體關鍵點檢測對於描述人體姿態,預測人體行為至關重要。因此人體關鍵點檢測是諸多計算機視覺任務的基礎。其在動作分類,異常行為檢測,以及人機交互等領域有著很廣闊的應用前景,是計算機視覺領域中一個既具有研究價值、同時又極具挑戰性的熱門課題。
盧策吾:上海交通大學研究員,博士生導師。主要從事計算機視覺與深度學習相關研究,入選國家「青年千人」計劃,原斯坦福 AI Lab 博士後研究員(導師:Fei-Fei Li 和 Leo Guibas),為斯坦福-豐田無人車重要研究人員之一。
雷鋒網 AI 科技評論報道。上海交大機器視覺與智能實驗室公眾號推文參見這裡。
※不止是五糧液,娃哈哈也要造車了!
※關於智能仿生機器魚與謝廣明教授的一些交流
TAG:雷鋒網 |