當前位置:
首頁 > 知識 > 李飛飛團隊CVPR論文:讓AI識別語義空間關係

李飛飛團隊CVPR論文:讓AI識別語義空間關係

本文共1000,建議閱讀5分鐘

斯坦福視覺實驗室即將在CVPR 2018上發表的一篇關於研究「指稱關係」任務的論文。

「」保安,保安!抓住那個砸玻璃的人!"

對於人類保安來說,理解這個指令是自然而然毫無難度的事。但機器就不一樣了:它們能從畫面中認出人人人人人,但究竟哪一個才是「砸玻璃的人」呢?

李飛飛領導的斯坦福視覺實驗室即將在CVPR 2018上發表的一篇論文Referring Relationships,研究的就是這個問題。

這篇論文提出的「指稱關係」任務,是給計算機一個「主-謂-賓」結構的「關係」描述和一張圖,讓它能將主體(主語對應的那個東西)和客體(賓語對應的那個東西)定位出來。

比如說:

他們要讓計算機在這樣一個場景中,根據「person - kicking - ball(人在踢球)」這個描述,定位出「踢球的人」和「球」,根據「person - guarding - goal(人在守門)」這個描述,定位出「守門的人」和「球門」。

正確圈出主體和客體,計算機內心需要經歷這樣一個過程:

如上圖所示,整個過程的第一步是用CNN提取圖像特徵,供演算法用來對主體和客體分別進行初步定位。

不過,不是所有的主體和客體都那麼容易找出來,比如說人很好識別,但球門就不一定了。幾位研究員所用的方法,是先找到主客體之間的關係,這樣只要定位出其中一個,就很容易找到另一個。

在這個過程中需要對謂語建模,也就是搞清楚對主客體關係的描述。他們把謂語看作主體和客體之間的注意力移動,藉此找出主客體之間的關係。

從上面的流程圖我們也可以看出,根據主體和構建出來的關係描述,可以推斷出來注意力轉移到的區域,找到客體應該在的位置,並據此修改圖像特徵。也可以根據注意力轉移,從客體推斷出主體位置。這個過程,稱為predicate shift。

運用predicate shift過程在主體和客體之間反覆傳遞消息,最終就能將這兩個實體定位出來。

「某人在另一個某人的左邊」,這種描述中的兩個人,也可以用這種方法定位出來。

「拿著杯子的人」、「站在滑板上的人」等等也都沒問題。

李飛飛團隊在CLEVR、VRD和Visual Genome三個視覺關係數據集上評估了自己的模型,成績如下:

想要了解更多細節,請進入親自讀論文擼代碼環節~

論文鏈接:

https://arxiv.org/abs/1803.10362

Keras+TensorFlow實現:

https://github.com/StanfordVL/ReferringRelationships

根據斯坦福視覺實驗室主頁介紹,他們在CVPR 2018上總共發表了三篇論文,除了今天介紹的這一篇之外,還有:

What Makes a Video a Video: Analyzing Temporal Information in Video Understanding Models and Datasets

De-An Huang, Vignesh Ramanathan, Dhruv Mahajan, Lorenzo Torresani, Manohar Paluri, Li Fei-Fei, and Juan Carlos Niebles

CVPR 2018 (spotlight)

Finding 「It」: Weakly-Supervised Reference-Aware Visual Grounding in InstructionalVideo

De-An Huang, Shyamal Buch, Lucio Dery, Animesh Garg, Li Fei-Fei, and Juan Carlos Niebles

CVPR 2018 (oral)

這兩篇論文的PDF版還未放出,我們會持續關注~

作者系網易新聞·網易號「各有態度」簽約作者


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 數據派THU 的精彩文章:

清華大學「智慧醫學影像論壇2018」
開放數據平台、助力國家實驗室:盤點默默耕耘在數據科學領域的清華力量

TAG:數據派THU |