當前位置:
首頁 > 新聞 > CapsNet 再升級!無監督學習圖像特徵,取得最先進結果

CapsNet 再升級!無監督學習圖像特徵,取得最先進結果

雷鋒網 AI 科技評論按:CapsNet 作者 Sara Sabour 聯合 Geoffrey Hinton 及牛津大學研究者在最新的論文《Stacked Capsule Autoencoders》中提出膠囊網路的改進版本,該膠囊網路可以無監督地學習圖像中的特徵,並取得了最先進的結果。

CapsNet 再升級!無監督學習圖像特徵,取得最先進結果

一個物體可以看作是一組相互關聯的幾何組成部分,因此,一個明確利用這些幾何關係來識別物體的系統,在應對視點的變化上理應具有魯棒性,因為內在幾何關係的視點是不會有變化的。

在這篇論文中,他們提出一個無監督版本的膠囊網路,通過可查看所有部件的神經編碼器,進而推斷物體膠囊的位置與姿勢。該編碼器通過解碼器進行反向傳播訓練,通過混合式姿勢預測方案來預測已發現部件的姿勢。同樣是使用神經編碼器,通過推斷部件及其仿射變換,可以直接從圖像中發現具體的部件。換句話說,每個相應的解碼器圖像像素建模,都是仿射變換部分做出的混合預測結果。他們通過未標記的數據習得物體及其部分膠囊,然後再對物體膠囊的存在向量進行聚類。

最後,該成果在 SVHN 上獲得了最先進的無監督分類結果 (55%),同時在 MNIST 上獲得了接近最先進的分類結果。(98.5%)。

CapsNet 再升級!無監督學習圖像特徵,取得最先進結果

該膠囊網路全名 Stacked Capsule Autoencoder (SCAE),具體可分為兩個階段:Part Capsule Autoencoder(PCAE)及 Object Capsule Autoencoder (OCAE)。

PCAE 負責將圖像分割成組件,藉此推斷其姿勢,並將圖像像素重構為轉換後的部件模板像素的混合產物;OCAE 則試圖將發現的部件及其姿勢組成更小的一組對象,再結合針對每個部件的混合預測方案來解釋部件的姿勢。

每個物體膠囊通過將姿勢-對象-視圖-關係(OV)乘以相關的物體-部件-關係 (OP) 來為這些混合物提供組件。SCAE 在未經標記的數據上進行訓練時藉此捕獲整個物體及其部件之間的空間關係。

CapsNet 再升級!無監督學習圖像特徵,取得最先進結果

Stacked Capsule Autoencoder (SCAE)

總的來說,該工作的主要貢獻在於提出了一種全新的表示學習方法,其中高度結構化的解碼器可以用來訓練編碼器網路,進而將圖像分割成相應的部件及其姿勢,而另一個編碼器網路則可以將這些部件組成連貫的整體。儘管訓練目標不涉及分類/聚類,但 SCAE 依然是唯一一個在無監督對象分類任務中不依賴於互信息(MI)中也能獲得有競爭力結果的方法。

via https://arxiv.org/pdf/1906.06818.pdf

雷鋒網 AI 科技評論 雷鋒網

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

Windows Terminal 上架微軟商店,更多自定義功能來襲
AI安防浪潮下,究竟需要怎樣強大的一款伺服器?

TAG:雷鋒網 |