結合符號主義和DL:DeepMind提出端到端神經網路架構PrediNet
DeepMind 最近的一項研究將符號人工智慧和深度學習結合起來,提出了一種新型端到端神經網路架構 PrediNet。打開今日頭條,查看更多圖片
符號主義和連接主義是人工智慧領域中的兩大流派。符號主義(Symbolism)是一種基於邏輯推理的智能模擬方法,又稱為邏輯主義 (Logicism)、心理學派 (Psychlogism) 或計算機學派 (Computerism),其原理主要為物理符號系統(即符號操作系統)假設和有限合理性原理。符號主義認為人工智慧起源於數理邏輯,人類認知(智能)的基本元素是符號(symbol),認知過程是符號表示上的一種運算。連接主義 (connectionism),又稱為仿生學派 (bionicsism) 或生理學派 (physiologism),其主要原理為神經網路及神經網路間的連接機制與學習演算法。
人工智慧發展早期,符號主義佔據主要地位。而 20 世紀 90 年代後連接主義發展迅猛,其代表方法是神經網路,利用多層神經網路的深度學習當然屬於連接主義。
符號主義和連接主義的關係很微妙,關於二者的爭論也很多。然而 DeepMind 最近的一項研究將符號人工智慧和深度學習結合起來,取二者之長,提出了一種新型端到端神經網路架構 PrediNet。
PrediNet 可以通過學習形成命題表徵(propositional representation),該表徵具備來自原始像素數據的顯式關係結構。為了評估和分析該架構,DeepMind 研究者使用了一組簡單的視覺關係推理任務,這些任務複雜度各不相同。實驗結果表明,新架構在此類任務上進行預訓練時,能夠學習生成可重用的表徵,從而在新任務上取得了比基線模型更好的後續學習效果。
通用、可重用表徵的重要性
人類在面對新問題時,能夠有效地利用之前的經驗來做參考,而那些經驗雖然與現在的問題看似大相徑庭,但在更抽象、結構化的層級上是有相似之處的。人類的這一能力對於終生持續學習是必要的,並且它使人類具備數據有效性(data efficiency)、遷移學習能力和目前機器學習無法匹敵的泛化能力。而設計能夠學習構建通用、可重用表徵的系統這一挑戰集聚了以上所有問題。這類表徵是通用且可重用的,因此其所包含信息的應用領域超出其來源語境。
此類表徵能夠提升數據有效性,因為已經了解如何構建新任務相關表徵的系統無需再從頭學習新任務。理想情況下,高效利用此類通用、可重用表徵的系統應該與構建此類表徵的系統相同。此外,在使用此類表徵學習解決新任務的過程中,我們應該期望該系統能夠進一步學習本身即通用且可重用的表徵。因此,除了系統學習的第一批表徵以外,系統的其他所有學習實際上都是遷移學習,學習的過程是累積、持續的,而且是終身學習的過程。
如何創建能夠學習構建此類表徵的系統?
構建此類系統的一個方法是從經典的符號人工智慧 [9] 吸取靈感。經典符號人工智慧系統基於一階謂詞演算(first-order predicate calculus)的數學基礎而構建,它將邏輯推論規則應用到語言命題表徵中,後者的元素是對象和關係。由於命題表徵是陳述式的,且結構是組合式的,因此它們自然而然地具備泛化性和可重用性。但是,與目前的深度學習系統不同,用於經典符號人工智慧的表徵通常不是從數據中學習得到的,而是手動獲取的。
DeepMind 的這項研究旨在將經典符號人工智慧和深度學習結合起來,它使用的是一個端到端可微神經網路架構 PrediNet,該架構基於命題關係先驗而構建,這與卷積網路基於空間和位置先驗而構建類似。
PrediNet 架構借鑒了近期的多項研究,如學習發現和利用關係信息的 non-local 網路架構 [25]、關係網路 [22, 18],以及基於多頭注意力的架構 [24, 26]。但是,這些架構生成的表徵不具備顯式結構。通常,從表徵的部分到符號方法(如謂詞演算)的常見元素(如命題、關係和對象)之間是沒有直接映射的。這些元素散落在嵌入向量中,很難解釋,從而使得下游處理很難利用語義合成性(compositionality)。而 DeepMind 提出的新架構 PrediNet 學習到的表徵部分可以直接映射到命題、關係和對象。
模型架構
PrediNet(圖 1)可以看做一個三階段的流程:注意力、綁定(binding)和評估。注意力階段選擇感興趣的對象對;綁定階段利用所選的對象對,實例化一組三位謂詞(關係)的前兩個參數;評估階段計算每個謂詞的剩餘(標量)參數的值,以使得出的命題為真。
圖 1:PrediNet 架構。注意力頭共享權重 W_K 和 W_S,而 W_Q1 和 W_Q2 對每個注意力頭是局部的。
實驗
實驗設置
該研究的實驗目標包括:1)驗證 PrediNet 架構可以學習通用、可重用表徵的假設;2)如果假設成立,探索假設成立的原因。為了達成這些目標,研究者設計了一系列可配置的簡單分類任務,統稱為 Relations Game。
圖 2:Relations Game 對象集和任務。(a)來自訓練集和留出測試集的示例對象。(b)共有五種可能的行/列模式。在多任務設置中,識別每一種列模式是一個單獨的任務。(c)用於單任務設置的三個示例任務。(d)用於多任務設置的示例目標任務(左)和課程(curriculum,右)。
為了評估 PrediNet 生成表徵的通用性和可重用性,研究者將實驗分為四個階段,其中,1)該網路在一個或多個任務的課程上進行預訓練;2)輸入 CNN 和 PrediNet 中的權重都是固定的,但輸出 MLP 中的權重根據隨機值進行重新初始化;3)該網路在一個新的目標任務或一組任務中進行重新訓練(如圖 3 所示)。
圖 3:用於多任務課程訓練的四個實驗步驟。
實驗結果
在研究通用性和可重用性之前,研究者先探索了 PrediNet 架構在單任務 Relation Game 設置中的數據有效性。結果取自 5 項任務:「same」、「between」、「occurs」、「xoccurs」和「colour / shape」,如表 1 所示。
表 1:在單任務 Relation Game 設置中的數據有效性。
接下來,遵循圖 3 所示的實驗步驟,研究人員將 PrediNet 學習可重用表徵的能力與每個基線進行了對比。他們研究了一系列目標任務和預訓練課程任務的組合。圖 4 展示了在這些組合中的發現。
圖 4:多任務課程訓練。目標任務是一個三列模式(AAB、ABA 和 ABB),唯一的課程任務是「between」。
圖 5 展示了更大範圍的目標任務/課程任務組合,主要關注步驟 3 中的學習曲線。
圖 5:通過一系列目標和預訓練任務學得表徵的可重用性。
為了更好地理解 PrediNet 的操作,研究者還給出了一些可視化圖(圖 6a)。為了研究 PrediNet 如何編碼關係,研究者再次在單任務設置中,對多個已訓練網路中心模塊輸出向量的每個頭進行主成分分析(PCA)(圖 6b)。
圖 6:(a)PrediNet 前四個頭的注意力熱圖。(b)主成分分析(PCA)。
論文鏈接:https://arxiv.org/pdf/1905.10307.pdf
TAG:機器之心 |