斯坦福教授ICLR演講:圖網路最新進展GraphRNN和GCPN
新智元報道
編輯:肖琴
【新智元導讀】圖網路領域的大牛、斯坦福大學Jure Leskovec教授在ICLR 2019就圖深度生成模型做了演講,闡述了圖生成模型的方法和應用,並詳細介紹了他的最新成果
斯坦福大學教授Jure Leskovec是圖網路領域的專家,圖表示學習方法 node2vec 和 GraphSAGE 作者之一。
在今年 ICLR,Jure Leskovec 教授及斯坦福、MIT 的多名研究者發表論文How Powerful Are Graph Neural Networks?(https://cs.stanford.edu/people/jure/pubs/gin-iclr19.pdf),詳細闡述了圖神經網路背後的原理和其強大的表徵能力,認為圖神經網路在因果推理方面有巨大的潛力,有望成為 AI 的下一個拐點。
此外,在 ICLR 受邀演講上,Jure Leskovec 教授還就圖深度生成模型做了演講。在這次演講中,Jure 闡述了圖生成模型的方法和應用,並詳細介紹了他的最新成果,GraphRNN 和 Graph Convolutional Policy Network。
本文帶來該演講的 PPT。
//i.stanford.edu/~jure/pub/talks2/graph_gen-iclr-may19-long.pdf
主要內容:
為什麼圖網路很重要?
圖生成任務
GraphRNN:RNN 的兩個層次
圖卷積策略網路:將圖表示和強化學習結合起來
為什麼圖網路很重要?
為什麼圖網路很重要?
深入了解圖的形成過程
異常檢測 - 異常行為,進化
預測 —— 根據過去預測未來
新的圖結構的模擬
圖補全 - 很多圖都是部分可觀察的
「如果」 場景
圖生成任務
任務 1:生成逼真的圖
生成與給定數據集相似的圖
任務 2:目標導向的圖生成
生成優化給定目標 / 約束的圖
藥物分子生成 / 優化
關鍵的見解
通過順序添加節點 / 邊來生成圖
好處:
表示具有不同大小、不同序列長度的圖
將不同的節點順序對應於不同的生成軌跡
捕獲節點之間的複雜依賴關係
GraphRNN:RNN 的兩個層次
GraphRNN:RNN 的兩個層次
目標:將模型圖生成作為序列生成
需要對兩個流程建模:
為新節點生成狀態 (節 Node-level RNN)
根據新節點的狀態生成新節點的邊 (Edge-level RNN)
圖卷積策略網路
圖卷積策略網路:目標導向的圖生成 (GCPN)
將圖表示 RL 結合起來
圖表示 (Graph representation) 捕獲複雜的結構信息,並在每個狀態轉換中啟用有效性檢查 (Valid)
強化學習 (RL) 優化中間 / 最終獎勵 (High scores)
對抗性訓練 (Adversarial training) 模仿給定數據集中的例子 (Realistic)
總結
通過序列生成,可以成功生成複雜的圖
每一步決策都是基於隱藏狀態做出的
顯式:中間生成圖,用 GCN 解碼
隱式:向量表示,RNN 解碼
任務:
模仿一組給定的圖
按照既定目標優化圖
※AI燃到爆!中關村人工智慧產業論壇十位大咖演講乾貨
※谷歌、微軟聯合出品《量子計算機編程》公開課,教你寫量子代碼
TAG:新智元 |