孿生網路實現小數據學習!看神經網路如何找出兩張圖片的相似點
GIF/1.7M
原文來源:hackernoon
作者:Harshvardhan Gupta
「機器人圈」編譯:嗯~阿童木呀、多啦A亮
深度神經網路是涉及圖像分類問題的重要演算法。這其中的部分原因是,它們具有大量的可訓練的參數。然而,這是以需要大量的數據為代價的,而這有時是不可獲得的。那麼接下來,我就將討論小樣本學習(One Shot Learning),其旨在緩解諸如此類的問題,以及如何在PyTorch中實現一個使用它的神經網路。
本文假設你對神經網路知識有所了解。
本文相關材料線索來自於此篇論文
標準分類vs小樣本分類
幾乎所有分類模型使用的都是標準分類。輸入被饋送到一系列層,最後輸出類概率。如果你想通過貓來預測出狗,你可以在你所期望的預測時間內訓練相似的(但不相同的)狗/貓圖片模型。當然,這要求你有一個數據集,與你使用模型進行預測時所期望的數據集類似。
另一方面,小樣本分類模型的要求就是,你只要有一個你想要預測的每個類的訓練樣本就可以。該模型仍然在幾個實例上進行訓練,但是它們只需要與你的訓練樣本相類似。
可以說明此問題的一個很好的例子就是面部識別。你可以在一個包含少數人的各種角度、拍攝光線等數據的數據集上訓練此小樣本分類模型。然後,如果你想要判別某人X是否在圖像中,那麼就可以拍攝該人的一張照片,然後詢問模型該人物是否在該圖像中(請注意,該模型沒有使用某人X的任何照片進行訓練)。
作為人類,我們往往只需要一次會面就可以通過面部識別出一個人,而且對於計算機來說,這是很可取的,因為大多數情況下數據處於最小值。
孿生網路
孿生網路是一種特殊類型的神經網路架構。與一個學習對其輸入進行分類的模型不同,該神經網路是學習在兩個輸入中進行區分。它學習了兩個輸入之間的相似之處。
架構
孿生網路由兩個完全相同的神經網路組成,每個都採用兩個輸入圖像中的一個。然後將兩個網路的最後一層饋送到對比損失函數,用來計算兩個圖像之間的相似度。我已經做了一個圖解用來幫助解釋這個架構。
它具有兩個姐妹網路,它們是具有完全相同權重的相同神經網路。
圖像對中的每個圖像將被饋送到這些網路中的一個。
使用對比損失函數優化網路(我們將獲得確切的函數)。
對比損失函數(Contrastive Loss function)
孿生架構的目的不是對輸入圖像進行分類,而是區分它們。因此,分類損失函數(如交叉熵)不是最合適的選擇。相反,這種架構更適合使用對比函數。根據直覺而言,這個函數只是評估網路區分一對給定的圖像的效果如何。
點擊此處鏈接獲取更多詳情
對比損失函數如下:
等式1.0
其中Dw被定義為姐妹孿生網路的輸出之間的歐氏距離(euclidean distance)。數學上歐氏距離是:
等式1.1
其中Gw是其中一個姐妹網路的輸出。X1和X2是輸入數據對。
等式1.0說明
Y值為1或0。如果模型預測輸入是相似的,那麼Y的值為0,否則Y為1。
max()是表示0和m-Dw之間較大值的函數。
m是大於0的邊際價值(margin value)。有一個邊際價值表示超出該邊際價值的不同對不會造成損失。這是有道理的,因為你只希望基於實際不相似對來優化網路,但網路認為是相當相似的。
數據集
我們將使用兩個數據集,經典的MNIST和OmniGlot。 MNIST將用於訓練模型以了解如何區分字元,然後我們將在OmniGlot上測試該模型。
OmniGlot數據集
OmniGlot數據集由包含50種國際語言的樣本組成。每種語言中的每個字母只有20個樣本。 這被認為是MNIST的「轉置」,其中類的數量較少(10個),訓練樣本數量較多。在OmniGlot中類的數量是非常多的,而每個類的樣本數是很少的。
圖2.0來自OmniGlot數據集的一些樣本
OmniGlot將用作我們的小樣本分類數據集,以便能夠從少數樣本中識別出許多不同的類。
結論
我們是在小樣本學習下進行研究,並嘗試使用一種稱為孿生網路的神經網路架構來解決這一問題。與此同時,我們還討論了區分輸入對的損失函數。
同時,我們還實施了這樣的架構,並對MNIST進行訓練,然後在OmniGlot上進行了預測。
了解更多信息,歡迎點擊鏈接
※ResNet有多大威力?最近又有了哪些變體?一文弄清
※無人駕駛目標檢測會遭到對抗樣本干擾?也許你的擔心是多餘的!
※伯克利與OpenAI通過最新「模仿學習」技術為機器人「賦能」
※智慧計算將對AI起到多大助力?
※萬字「全文」詳解谷歌神經網路機器翻譯NMT
TAG:機器人圈 |
※網路小說作家是如何寫出那些經典網路小說的?
※中美網紅生存現狀:網路上那些千篇一律的好看皮囊
※那些網路小說
※網路上好看的小姐姐現實生活中長什麼樣?網友:耳目一新!
※網路遊戲如何看待大歷史?
※膠囊網路簡介——膠囊網路是如何克服卷積神經網路的一些缺點的?
※一文看懂卷積神經網路
※呆萌網路!
※說網路,談網路,講網路,網路無所不能
※六本網路小說中的精品之作,沒看過這些別說你讀過網路小說
※程碑式的科幻網路小說,好看的比得上《三體》,一起來看看吧!
※網路小說是如何煉成的?
※就因為網路!曾經的直播一姐馮提莫變這樣?網友:網紅想當明星!
※十大歷史類網路小說,看過一半的都是老書蟲了
※狐妖小紅娘中一句經典台詞,火爆網路,網友:太扎心了
※一張圖刷屏網路:你笑起來的樣子,真好看……
※三本曾經紅了半個網文界,現在卻鮮為人知的網路小說,被埋沒的神作!
※曾經火遍網路的「小馬雲」,現在過得怎麼樣了?
※你都遇見過哪些網路小說的套路?網友:主角人生就像開了掛
※值得經常翻看的六本網路小說,第一本榮列十大經典網路玄幻小說