當前位置:
首頁 > 科技 > 馬庫斯:DeepMind新出的機器心智網路不錯,但有誤導性

馬庫斯:DeepMind新出的機器心智網路不錯,但有誤導性

原作 Gary Marcus

Root 編譯

量子位 報道 | 公眾號 QbitAI

DeepMind最新出的論文Machine Theory of Mind還不錯(fascinating)。

但又犯了哲學上的錯誤。這已經不是第一次了。

這是馬庫斯昨天在Medium上對DeepMind新文章給出的評價。

一個月以前,馬庫斯還寫過篇長文談到這個問題。

雖然DeepMind(以下縮寫為DM)官方表明在造圍棋演算法的過程中,並沒有用到人類的知識。

但馬庫斯指出,DM圍棋演算法里所用到的蒙特卡洛樹搜索就是基於以往在圍棋程序上的積累。

「而DM他們的工作卻傾向於放大人工智慧後天自我塑造作用,」馬庫斯說,「這有很強的誤導性。」

這次機器心智理論的文章,說的是可以自動學會給其他智能體的行為建模。

但馬庫斯認為,這和以前的AlphaGo的工作非常相似,DM悄悄地搭建了非常多的前提先決條件,包括:

1)默認其他智能體的存在是個事實;

2)不同的智能體可以有不同的觀念;

3)這些觀念有存在錯誤的可能(觀念可以通過系統的特定的輸出節點看出來)。

所以說,他們已經對這個心智理論的底層進行硬編碼了。

為了更好的度量,他們針對牆、物體、智能體分別搭建了三個極其不同的具有代表性的平面。

上述所有操作都能在文章的正文和附錄中找到,但是卻沒有在摘要和討論里大大方方地說出來(馬庫斯os:搞得那麼隱蔽是鬧哪樣)。

尤其值得重視的是,這次預置的先天知識和框架和之前AlphaGo的是不一樣的。

AlphaGo依賴的是蒙特卡洛樹搜索,而ToMNet,心智理論神經網路,是依賴於能把單個智能體的已有知識和分析區分開的架構模塊。

正如馬庫斯1月17號的那篇文章里的預測(還有1月2號那篇深度學習)一樣,DeepMind當下的工作會出現大量不承認底層預置知識重要性的現象。

(演算法)要想在遊戲中玩到最後,編程的人越要重視(演算法)底層的能力。

可惜,不同的任務之間(對演算法)有不同的底層要求。

棋盤遊戲要用蒙特利樹搜索,理解語言要用句法分析樹,理解3D場景要用幾何圖元(圖形軟體包中用來描述各種圖形元素的函數,或簡稱為圖元,primitive),那些抱團才能解決的問題分析要用到機器心智理論神經網路。

總而言之,所有這些預置的知識都說明了,人工智慧不可能是一塊白板。更準確地來說,是像伊曼努爾·康德(Immanuel Kant)所預見到的那樣,具有時空上的多樣性。

只有當編程圈意識到知識原始積累的重要性,造出來的系統才能成事兒。不承認預置知識的貢獻,還一個勁兒地稱「學習系統」,強調演算法所有能力都是後天習得的,只會進一步誤導大家。

馬庫斯希望AI界的人能更多地從底層方面,原則上,開始意識到機器預置知識(innate machinery)的重要性。

最後,附編譯來源,

https://medium.com/@GaryMarcus/deepminds-misleading-campaign-against-innateness-a2ea6eb4d0ba


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 量子位 的精彩文章:

在哈佛的一場閉門會上,專家說全球各國都應設置「人工智慧部長」
AI博弈論:DeepMind讓智能體在非對稱博弈中找納什均衡

TAG:量子位 |