當前位置:
首頁 > 科技 > 深度 | 從規則推理到數據學習:人工智慧該學習人類的思維方式嗎?

深度 | 從規則推理到數據學習:人工智慧該學習人類的思維方式嗎?


選自s

ciencemag


作者:

Matthew Hutson


機器之心編譯


參與:乾樹、劉曉坤





近日,《Science》自由撰稿人 Matthew Hutson 在該期刊上發文,從嬰兒學習、先驗知識、因果推理和物理直覺的角度討論了人工智慧的當前現狀,並以目前已被視為過時的基於規則的 AI 和當下最熱門的基於機器學習的 AI 作為兩個極端參考(人類智能處於過渡階段),幫助人們思考人工智慧的未來走向。







2 月的某個周六上午,穿著條紋襯衫和緊身褲的 3 歲孩童 Chloe,正在擺弄它的新玩具。她的爸爸,紐約大學的發展認知科學家 Gary Marcus 帶回了一些粘連樂高積木的膠帶。精通樂高的 Chloe 對此很感興趣。




但她一直在向上搭。她可以藉助膠帶弄出別的花樣嗎?Marcus 建議靠著桌邊開始搭建。十分鐘後,Chloe 開始在牆上貼膠帶。「我們最好在媽媽回來之前做完,」Marcus 一本正經地說,「她會不高興的。」(劇透:牆面漆會受影響)




其實 Marcus 暗暗地在做一個實驗。Chloe 會將她學到的知識應用到新的環境中去嗎?過了幾分鐘,她就依牆搭建了一個樂高雕塑。「爸爸,我做到了!」她大叫著。Chloe 正在展示關於適應性的常識,這是計算機科學家一直在努力複製的一種智能。Marcus 認為,人工智慧領域(AI)會從 Chole 搭積木這件事上學到一些經驗。



機器學習研究員認為,基於海量數據訓練的計算機可以學習任何東西,包括常識,而常識幾乎沒有任何編程規則。這些專家在我看來「有一個盲點,」Marcus 說,「這是一種社會學的東西,通常與物理學中的簡單性原則相悖。」




他說,計算機科學家忽視了認知科學和發展心理學數十年來的研究,即人類有種本能:在出生時或兒童早期出現的直覺編程能力,這幫助我們像 Chloe 一樣抽象並靈活地思考。




然而,許多計算機科學家都在急切地探索簡單的人工智慧的極限,即便他們在機器學習領域取得不少成就。「我認為,大多數機器學習研究員對於投入大量背景知識的做法持有偏見,因為從某種意義上說,我們認為這是一種失敗,」科瓦利斯俄勒岡州大學的計算機科學家 Thomas Dietterich 說。



他補充道,計算機科學家也很喜歡簡單,並且厭惡調試複雜的代碼。麻省理工學院(MIT)的心理學家 Josh Tenenbaum 說,像 Facebook 和 Google 這樣的大公司是促使人工智慧向這個方向發展的另一個因素。這些公司最關心的是狹義定義的近期問題,例如網路搜索和人臉識別,一個「小白」AI 系統可以在大量數據集上進行訓練並且成效顯著。




但從長遠來看,計算機科學家期望人工智慧將承擔更多更棘手的任務,這需要靈活性和常識。他們想創造解說新聞的語音機器人,可以解決城市交通擁堵的自動駕駛計程車,以及護理老年人的機器人。「如果我們想要創造一個像 C-3PO 一樣與人類世界進行交互的機器人,」Tenenbaum 說,「我們將需要在更通用的環境中解決所有這些問題。」




一些計算機科學家已經在嘗試。今年 2 月,麻省理工學院希望用工程術語來理解人類智能,並啟動了 Intelligence Quest 研究計劃,現已籌集數億美元。研究員希望這些工作將 AI 發展到純機器學習和純本能之間的領域。它們會按照一些嵌入式規則啟動,但在之後開始學習。Tenenbaum 說,「從某種意義上說,這就像古老的先天或後天爭論,現在已經轉化為工程術語。」




這項工作包括發現嬰兒知道什麼時候學到了什麼,這是可以應用到機器學習上的經驗。華盛頓西雅圖艾倫人工智慧研究所(AI2)首席執行官 Oren Etzioni 說,這需要很長時間。AI2 最近宣布斥資 1.25 億美元來開發和測試 AI 的常識。Etzioni 說:「我們希望 AI 建立在人腦天生的表示結構上,但我們不了解大腦如何處理語言、推理過程和知識。」




不同的思維




隨著時間的推移,人工智慧(AI)已經從依賴編程規則和邏輯的演算法轉向機器學習,機器學習的演算法僅包含少量規則並提取訓練數據反覆訓練來學習。人的思維處在中間位置。






最後,Tenenbaum 說:「我們正在認真對待人工智慧最古老的夢想之一:你可以製造一台像人類一樣發展智能的機器,從一個嬰兒開始,像孩子一樣學習。」




在過去幾年裡,AI 實現了翻譯、診斷癌症並在撲克比賽中擊敗人類。但是對於每一場勝利,都存在一些愚蠢的錯誤。圖像識別演算法現在可以比人類更准地區分狗的品種,但有時它會把吉娃娃誤認為是藍莓鬆餅。人工智慧可以用超人的技巧來玩經典的雅達利遊戲,比如太空侵略者,但是當你僅留下一個外星人時,AI 就會莫名其妙地掛掉。




機器學習應該對這些成功和失敗負責。從廣義上說,人工智慧已經從依賴許多編程規則(也稱為良好的老式 AI 或 GOFAI)的軟體轉移到通過反覆訓練學習的系統。由於計算機硬體、大數據和神經網路演算法的發展,機器學習取得了飛躍。



這些網路其實是通過簡單的計算單元來模擬大腦中的神經元,在提取訓練數據時創建更強或更弱的連接。




憑藉 Alpha,Google 的 DeepMind 將深度學習推向了頂峰。每次去掉規則後,Alpha 似乎都會有所提升。2016 年,AlphaGo 擊敗了的人類圍棋冠軍。2017 年,編程規則更少的 AlphaGo Zero 輕鬆擊敗 AlphaGo。幾個月後,一個更簡單的稱為 AlphaZero 的系統擊敗了 AlphaGo Zero,並且還掌握了國際象棋。




1997 年,基於規則的經典 AI,即 IBM 的 Deep Blue 擊敗了國際象棋冠軍 Garry Kasparov。但事實證明,真正的國際象棋精湛技術不能根據規則得到,而是通過經驗推理出的最佳走位。所以通過反覆學習的 AlphaZero 可以擊敗 Deep Blue,以及當今最好的國際象棋程序和每個人類冠軍。




然而像 Alpha 這樣的系統顯然不能學習常識。要在 21x21 而不是 19x19 的棋盤上下圍棋,AI 必須重新學習。在 20 世紀 90 年代後期,Marcus 訓練了一個接收輸入數字並將其輸出的網路,這是可想像的最簡單的任務。




但他只用偶數來訓練它。當用奇數進行測試時,網路崩潰了。它不能將學習從一個領域應用到另一個領域,就像 Chloe 開始將她的樂高橫向建造時那樣。答案不在於基於規則的 GOFAI。




根據顯式的規則,例如「如果腿數= 4,尾巴=真,尺寸>貓」,一個孩子識別不出一條狗。識別更加細緻,三條腿的吉娃娃不會活過 3 歲。人類不是一張白板,也不是硬連線的。相反,有證據表明我們有傾向性,幫助我們學習知識並進行推理。我們並沒有遺傳到一個技能包,只是靠著本能去學習。




哈佛大學心理學家 Elizabeth Spelke 認為,我們至少有四種「核心知識」系統,使我們在理解對象、行為、數量和空間方面領先一步。例如,我們是天生的物理學家,能夠快速理解物體及其相互作用。有研究表明,出生 3 天的嬰兒會將部分隱藏的棒的兩端看做同一實體,這表明我們的大腦可能傾向於感知一致性物體。




我們也是天生的心理學家。在 2017 年的一項科學研究中,Spelke 實驗室的研究生 Shari Liu 發現,10 個月大的嬰兒可以推斷出,當一個動畫角色爬上一個更大的山丘形成一個形狀而非另一個時,角色必須更傾向前者。Marcus 證明了 7 個月大的嬰兒可以學習規則。




當聽到不同於以往的三詞短句(「ga ti ga」)的(「wo fe fe」)時,它們表現出驚喜。後來的研究表明,新生兒表現出類似的行為。





嬰兒的本能可以幫助我們學習常識,迄今為止人工智慧演算法對此難以捉摸。




Marcus 給出了他認為應該融入 AI 的 10 種人類本能的最低清單,其中包括因果關係,成本效益分析和類別 vs 實例(狗 vs 我的狗)的概念。去年 10 月在紐約大學,他在 AI 是否需要「更人性化」的辯論中宣布他的清單,紐約大學計算機科學家、Facebook 首席人工智慧科學家 Yann LeCun 也參加了此次辯論。




為了證明本能的重要性,Marcus 展示了一張羊羔下山的的幻燈片。他說,「他們不會進行百萬次試驗性學習,如果它們犯錯,這會是一個問題。「LeCun 不同意多數發展心理學家的觀點,認為嬰兒可能會在幾天內學會這種能力,如果是的話,機器學習演算法也可能會這樣。




他的堅持來自經驗。他從事圖像識別工作,並於 20 世紀 80 年代開始提出手動編碼演算法識別圖片中的特徵不再是必需的。三十年後,他被證明是正確的。批評者問他:「你既然可以編寫出來,為什麼還要去學會它?」他的回答是:編寫很難,如果你不完全明白事情是如何運作的,那麼你設計的規則可能是錯誤的。




但 Marcus 指出,LeCun 自己將 10 個關鍵本能之一嵌入到他的圖像識別演算法中:平移不變性,無論物體出現在視野中的哪個位置都能被識別出來。




平移不變性是卷積神經網路的特性,或者說它是 LeCun 成名的理論。在過去的 5 年裡,它們已經成為圖像識別和其他 AI 應用的核心,並引發了當前深度學習的熱潮。




LeCun 告訴 Science,平移不變也可以通過更好的通用學習機制習得。他說,「很多這些特性會因為了解這個世界如何運作而自發地出現。」加拿大多倫多大學深度學習的先驅 Geoffrey Hinton 對此表示贊同。




Hinton 說:「大多數相信本能知識的人有一種毫無根據的觀點,即從頭開始學習數十億參數很困難。但我認為深度學習最近的進展表明它實際上非常容易。」




關於將人工智慧置於純學習與純本能之間的爭論將繼續。但是這個問題掩蓋了一個更實際的問題:如何設計和編碼這種混合機器。尚不清楚如何將機器學習及數十億個神經網路參數與規則和邏輯結合起來。




也不清楚如何確定最重要的本能並靈活編碼它們。但是這並沒有阻止一些研究員和公司去嘗試。




位於澳大利亞悉尼的新南威爾士大學的機器人實驗室裝修整潔,看起來像客廳和廚房,冰箱里裝滿了 James Boag 的啤酒。計算機科學家 Michael Thielscher 解釋說,該實驗室是國內機器人的測試平台。他的團隊試圖賦予豐田護理機器人(HSR)兩種人性化的能力。該機器人有一條機械臂和一個臉部屏幕。




首先,他們希望對 HSR 進行編程,將大問題分解為更小、更簡單的問題,就像一個人將解決方案分成幾個步驟一樣。其次,他們想讓機器人像人類一樣能夠理解信念和目標。如果一個人要求它拿起一個紅色杯子,但是只看到一個藍色杯子和一個紅色碟子,HSR 會如何回應?




到目前為止,他們的軟體顯示出一些人性化的能力,包括選擇藍杯而不是紅盤。但是更多的規則被編入系統,這遠多於 Thielscher 想要的。他的團隊不得不告訴他們的 AI,杯子通常比紅色更重要。理想情況下,機器人將具有社交能力,可以快速學習人類的偏好。




其它的研究員正在努力為他們的人工智慧注入像嬰兒一樣的天生的直覺。倫敦的 DeepMind 的計算機科學家開發了稱為交互網路的東西。它們加入了一個對物理世界的假設:離散對象普遍存在並且具有不同的相互作用。




如同嬰兒可以很快將世界分解為交互的實體,這些系統很容易學習對象的屬性和關係。他們的結果表明,交互網路可以比一般的神經網路更準確地預測繩子下落和球在框中彈跳的行為。





機器學習的勝利,2017 年 AlphaGo 擊敗圍棋冠軍柯傑。




Vicarious 是位於加利福尼亞州舊金山的一家機器人軟體公司,該公司結合所謂的模式網路(schema network)將人工智慧推向巔峰。這些系統也假設對象和交互的存在,但也試圖推斷連接它們的因果關係。通過大量的學習,該公司的軟體可以像人類一樣根據預期的結果制定計劃。(我不想讓我的鼻子癢,抓它可能會有幫助。)




研究人員將他們的方法與最先進的神經網路在 Atari 遊戲 Breakout 中進行了比較,玩家通過一塊板來轉移球並敲出磚塊。因為模式網路可以了解因果關係(例如,無論速度如何,球碰到磚頭都會敲掉磚塊這一事實)當遊戲發生變化時,也不需要額外的訓練。




你也可以移動目標磚塊或讓玩家撥動三個球,但是模式網路仍然在遊戲中佔上風。其它網路掛掉了。




除了我們天生的能力之外,人類也從大多數 AI 沒有的東西中受益:身體。為了幫助軟體認知世界,Vicarious 將軟體嵌入到智能體中,因此它可以探索虛擬環境,就像嬰兒可能會通過傾倒一組積木塊來學習重力一樣。今年 2 月,Vicarious 提出了一個系統,通過一個微小的虛擬角色穿越地形來尋找 2D 場景中的有界區域。




正如它探索的那樣,該系統學習了遏制的概念,它比標準的被動學習場景的圖像識別卷積網路能夠更快地理解新的場景。概念(普適的知識)對常識至關重要。




「在機器人學中,機器人能夠推斷新情況是非常重要的,」Vicarious 的聯合創始人 Dileep George 說。今年晚些時候,該公司將在倉庫和工廠進行試點測試,幫助機器人在打包運輸前提取、組裝並標註物體。




最具挑戰性的任務之一是如何靈活編碼本能,以便 AI 可以應對一個並不總是遵循規則的混亂世界。例如,自動駕駛汽車不能指望其他司機遵守交通法規。為了應對這種不可預測性,加州斯坦福大學的心理學家和計算機科學家 Noah Goodman 幫助開發了概率編程語言(PPL)。




PPL 將計算機代碼的嚴密結構與概率論結合起來,類似人類邏輯的方式,但同時也考慮到了不確定性:




如果草地潮濕,可能會下雨,但也許有人打開了洒水裝置。重要的是,PPL 可以與深度學習網路相結合,以融入拓展學習。




在 Uber 工作的時候,Goodman 和其他人發明了這種稱為 Pyro 的「深度 PPL」。該出行公司正在探索 Pyro 的用途,例如調派司機以及在道路施工和比賽日期間自適應規劃路線。Goodman 說,PPL 不僅可以推理物理狀態和物流,還可以推斷人們交流及應對棘手問題的表達形式,如誇張、諷刺。




Chloe 可能在十幾歲之前都不會諷刺,但她對語言的天生訣竅已經很了解了。在 Marcus 的公寓里,她拿出一對卡住的樂高積木。「爸爸,你能幫我解開這個嗎?」她的父親沒有幫她改正創造的義務。辭彙和想法就像樂高積木,各部件很容易混搭,並且在世界範圍受到熱切的嘗試。




在 Chloe 厭倦在牆上搭積木之後,一個年齡稍長、經驗稍稍豐富的智能系統有機會嘗試它:她 5 歲的哥哥 Alexander,很快搭建了一個更高大的樂高建築。




「他做的很好,」Marcus 如此說。「他沒有進行一千萬次樂高粘連試驗來評估建築的完整性,他正在採取他所知道的有關物理學的知識,並做出一些推論。」




Marcus 顯然很驕傲,不僅對他的子女的能力,而且對他們論證了關於我們如何了解這個世界的理論,以及 AI 如何學習。搭完樂高後,Chloe 和 Alexander 跳進他們父親的懷抱。當他轉起來時,他們高興地尖叫起來,這為他們提供了另一個機會來調整他們對物理學的直觀感官,以及樂趣。




原文鏈接:http://www.sciencemag.org/news/2018/05/how-researchers-are-teaching-ai-learn-child





本文為機器之心編譯,

轉載請聯繫本公眾號獲得授權



?------------------------------------------------


加入機器之心(全職記者/實習生):hr@jiqizhixin.com


投稿或尋求報道:

content

@jiqizhixin.com


廣告&商務合作:bd@jiqizhixin.com


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

入門 | 機器學習第一課:決策樹學習概述與實現
入門 | 初學機器學習:直觀解讀KL散度的數學概念

TAG:機器之心 |