換個角度看AI:追溯人工智慧研究的歷史和哲學邏輯
編譯:Zoe Zuo、HAPPEN、丁慧、小魚
正如題圖所示,仿生人會夢見電子羊嗎?
(譯者註:Do Androids Dream of Electric Sheep?是Philip K. Dick所著的一本科幻小說,講述人類在一個崩壞的環境中複製自己並奴役這些仿生人的故事。)
人工智慧發展迅速且應用廣泛。現實生活中AI技術的發展聽起來像科幻電影,而科幻電影則更像是另一種畫面感十足的現實場景。經過幾十年的探索,AI技術可以說已趨於成熟,然而人們依舊固執己見,業內人士乃至全世界都對其可行性仍持懷疑態度。
類似的情形出現在瑪麗?雪萊(Mary Shelley)創作的哥特式小說《弗蘭肯斯坦》(Frankenstein)中。小說探討了將人造生命創造出來並引入社會所產生的一系列後果。令我們困惑的是,書中的怪人一方面做出毫無人性的暴行,另一方面又展現出同人類一樣的弱點,對友情的需求以及對於自我存在的危機感。
有人說我們應該關注新發現的前景與後果。但是,如果把機器人大軍引入到像當今社會這樣複雜的系統後產生混亂呢?也有人說我們要關注取得的成就,以及那些將此類想法落地的成功案例。然而,在偶然的成功和理論支撐的結果之間我們又該如何抉擇?
不妨集中注意力,一起理智地來追溯AI的歷史淵源吧!
不管你感興趣的是古希臘哲學家邏輯思考的規則,還是阿拉伯數學家的公式推導,亦或是19世紀歐洲知識分子對數學的狂熱。一個不爭的事實是:問題遠遠比你想像的更為深刻(即便考慮摩爾定律)。
「我們日後成為什麼樣的人主要取決於父輩們在不經意間的教導,除此之外,我們由零零碎碎的智慧所塑造。」
——Umberto Eco
本文接下來的內容將討論AI的發展史,包括一些重要人物所提出的相關問題、論證和看法。其中涉及的事件大部分都發生在20世紀60年代左右,同時期,也逐漸形成了AI的正式定義、發展目標、科研群體與反對者等。
機器可以思考嗎?
1950年,艾倫·圖靈(Alan Turing)試圖在他具有開創性意義的論文《計算機器與智能》中回答這個刻意簡化的問題。論文部分內容的含義並不明確,而且限定了人們對人工智慧的理解。為此圖靈設計了一個思維實驗,這就是著名的圖靈測試:
參與者A是男性,參與者B是女性,參與者C的性別未知。C扮演詢問者的角色,雖然無法看到A和B,但可以用客觀的語句和兩人進行交流。通過向A和B提問,C要試著確定A和B的性別。A的任務是迷惑C,讓C做出錯誤的決定,而B則要協助C做正確的決定。
將問題重新設計,如下:
如果由一台機器來扮演A的角色,會發生什麼?這種情況下,詢問者做出錯誤決定的頻率會與角色A、B由兩個真人扮演時一樣嗎?
圖靈的方法似乎遵從了鴨子測試(duck test)的原理:如果它看起來像只鴨子,像鴨子一樣游泳,像鴨子一樣嘎嘎叫,那它大概就是只鴨子。
當談及人類相關的智能,例如意識,圖靈的觀點是,不能因為某人(或某物)不具備尚未定義的特徵而對其否定。因此,意識與我們對AI的探索無關。
哥德爾不完備定理(G?del』s incompleteness theorems)是我們試圖談論AI時面臨的一大障礙。根據這一系列定理,數學邏輯無法具備完備性和相容性。因此,以數學邏輯進行學習的機器往往無法觸及到一些真理。圖靈對此的回應倒讓人長舒一口氣:你怎麼知道人類智力就不存在局限性呢?
小貼士:哥德爾不完備定理是庫爾特·哥德爾於1931年證明並發表的兩條定理。
簡單地說,第一條定理指出:任何相容的形式系統,只要蘊涵皮亞諾算術公理,就可以在其中構造在體系中不能被證明的真命題,因此通過推演不能得到所有真命題(即體系是不完備的)。
把第一條定理的證明過程在體系內部形式化後,哥德爾證明了他的第二條定理。該定理指出:任何相容的形式系統,只要蘊涵皮亞諾算術公理,它就不能用於證明它本身的相容性。
圖靈的這篇論文論證充分,具有清晰的辯證結構,然而,因為論文推測的技術尚未被發現,圖靈的論述也被擱置。
邁向人工智慧
馬文·明斯基(Marvin Minsky)是人工智慧研究領域的先驅之一。翻開人工智慧家族塵封的相冊,明斯基就是給家庭聚餐添上些許不安的老人:「明斯基老叔,他迷人,與眾不同,講話總是很有趣。」
明斯基是1956年達特茅斯會議(the Dartmouth Conference)的組織者之一。在這次會議上,Artificial Intelligence作為術語首次被提出,同時也作為一個領域而誕生。明斯基對AI的切實可行充滿信心,但他不看好用錯誤的探索方式,他也因此被人們所銘記。
1961年,明斯基被問及AI領域所取得的進展。讓我們看看他說了什麼:
我們應該先問問什麼是「真正的」智能?我覺得這更像是一個美學問題,或者關乎一種尊嚴感,而不是一個科技問題!對我來說,「智能」不過意味著各種性能的綜合,我們關注這些性能但無法理解。所以,這個問題通常和數學上「深度」問題相伴相隨。一個定理的證明一旦被真正理解,它的內容就變得無關緊要了。
定義AI固然困難,明斯基承認這一點,因此他將繼續探索。他的著手點是為AI確定幾大發展支柱,即搜索、模式識別、學習、規劃和歸納。
項目的終極目的是通過探索獲得AI的解決方案。通過模式識別可以確定適合AI的工具,通過學習以往的經驗可以對現有的演算法進行改善,通過規劃可以更高效地研究AI。至於機器能否獲得歸納與推理能力,明斯基說道:
目前根據哥德爾不完備定理,還沒有一個歸納推理系統能有效適用於所有體系。但是,給定一個體系(例如我們的世界)或者一些體系的集合,以及一套成功的標準,實現機器的認知就是技術性問題,而非空想。
明斯基在接下來的回答中多次重申,要實現AI應該通過各種複雜的分層架構。基於這一點,他質疑感知機演算法,因為這一演算法連中等難度的問題都解決不了,何況實際問題更加複雜。
明斯基的論斷挫敗了大眾研究感知機的信心,從而耽誤了深度學習的發展。通過進行深度架構,即使利用簡單的構件也可以解決複雜的問題似乎在為明斯基開脫。不管怎樣,明斯基的確具備獨特的洞察力。
然而,因為幫助業界發現了各種原始方法的缺陷,明斯基的言論具有建設性意義。此外,深度學習或許是目前為止我們所探索到的最佳演算法(還催生了各種很棒的應用),但絕不是AI的終極演算法。
想法、大腦和程序
1980年,約翰·希爾勒(John Searle)對於AI的發展很不滿。儘管早些時候他強烈反對強人工智慧的概念,但這次他決定公開反駁。事實上,即使標題聽起來有些諷刺。但我仍感覺希爾勒在揪著我的衣領,大力揮舞他的手,指著我說:「年輕的小夥子,讓我幫你從根本上區分一下吧。」
「你可能會有這樣的印象:AI領域中寫有關強人工智慧的人認為他們可以避重就輕,因為他們沒有認真研究過這個理論,並認為其他人也一樣。至少我會發聲質疑,並認真研究。」
希爾勒只攻擊強人工智慧這個概念,他認為這是一種計算機能夠模仿任何人類行為的能力。而所謂計算機擁有認知能力的觀點,亦可通過類比被推翻。由他提出的著名的思想實驗「中文房間實驗」論證了這一觀點,實驗過程如下:
假定某人被關在一個只有中文字元的房間里,而他只懂英文,對中文則一竅不通,甚至說不出中文字元與日文字元的區別。他在屋內完全是通過英文規則手冊操作著屋外遞進來的中文紙片(問題),這些字元需要通過英文形式的句法來確認,之後通過擺弄這些字元再將信息遞送出去(回答)。恭喜!通過這個程序你就學會了中文。
這就是希爾勒於1980年提出的中文房間實驗。思想實驗本身並不是一個實驗,因為它無法實際操作,而是探索一個想法的潛在結果。最古老也最有名的思想實驗,可能是伽利略的比薩斜塔實驗(你是否也認為伽利略真的從塔上往下扔蘋果?)。
希爾勒的觀點是,能夠給出中文問題答案並不意味著懂中文,而這種能力也並非取決於由哪種語言書寫規則。因此,給予適當演算法後產生預期輸出的計算機,不是一個「會思考的」個體。
就某些功能推理而言,希爾勒質疑的是一個程序的思考能力。他指責當今的AI研究人員存在行為主義和操作主義,試圖將程序與頭腦等同(事實也如此),而忽略了大腦的重要性。
希爾勒認為,認知只源於生物行為;而程序可以完全獨立運行(因為它不受硬體平台的限制),因此程序並不具備認知能力。
當閱讀他的原文時,你會感覺到希爾勒正在攻擊一個尚未成熟的計算機科學家社區,而這個社區關於什麼是智能並沒有達成共識,只是試圖通過技術手段和推測來模擬機器智能。
如同一般哲學方法中的虛無主義一樣,明斯基回應希爾勒:「應該忽視希爾勒的誤解。」
大象不會下棋
即使大象不會下象棋,你也沒有理由責備它們。「大象不會下象棋」( Elephants Don"t Play Chess)是羅德尼·布魯克斯(Rodney A. Brooks)在1990年發表的一篇論文,試圖採用論據和他的機器人隊伍來支持AI。羅德尼·布魯克對AI的發展做出了卓越的貢獻,經典的AI理論中應該有他的一席之地。
在那個時代,人工智慧正經歷著第二個寒冬。企業和政府也意識到不能對AI抱有過高期望而削減了資金。
所以是時候反省了。當一件事情從根本上失敗時,有兩種方式來理解:要麼是這件事情不可能完成,要麼採用了錯誤的方法。
布魯克斯認為AI停滯不前是因為研究人員過於關注函數表達式。符號系統假設就是關於機器智能如何運作存在已久的觀點。根據這個假設,世界上的人、汽車和情感等眾多實體,可以很自然地將它們與符號相匹配,並輸入給計算機。如果該假設成立,那麼只要提供必要的信息便能使計算機擁有智能。
儘管這個假設看起來沒有問題,但它在某種程度上誤導了AI的發展:
符號系統不足以描述整個世界。根據框架問題,定義任何尚未明確存在的事物是一種邏輯錯誤。因此,布魯克斯建議:為什麼不把整個世界作為它自己的模型?
簡單計算無法衍生機器智能。啟發式演算法的大量使用是訓練智能演算法的必經之路,但這與我們嘗試創造知識的初衷背道而馳。(網格搜索是對人類智力的侮辱。)
當AI的發展目標是尋求一種通用人工智慧模型時,就出現了布魯克斯稱之為混淆的現象:大量的研究表明智能演算法的適用場景並不明確。機器智能確實具有吸引力,正因為如此,人類對知識的探索才永無止境。
布魯克斯並不支持物理根據假設(physical grounding hypothesis)。也就是說,讓人工智慧直接與世界交互,並將其用作自己的表示。上述假設與AI現在的發展之間還有很大的差距:從學習需要巨大的計算資源、專家的指導到總不夠用的訓練數據;布魯克斯還設想,為AI配備物理實體和廉價硬體並將其銷售到世界各地。要解決這個問題並不容易。
布魯克斯認為機器智能是集群行為而不是複雜行為。或許他實驗中最深刻的見解是,「目標導向行為源自於簡單的無目標導向的交互行為。」無需預設協同模式,因為智能計算機可以制定出自己與世界交互的最佳策略。
布魯克斯關於AI發展的討論為我們證明了物理根據假設的重要性:人類是我們最常見和最親近的智能體。因此,當我們試圖重新創造這種智能特徵時,就需要觀察人類文明緩慢的形成過程。如果考慮到人類學習智能行為所需的時間,如交互、繁衍和生存,與我們尚未成熟的下棋程序相比,便可以得出結論:學習行為或許是最難開發的技能,也是我們應該要關注的重點。
布魯克斯雖然對自己提出的實用方法很滿意,但也承認其理論局限性,但他歸因於學術界尚未提出讓大家透徹理解人群動態交互行為理論。
再一次,工程師漠視了哲學界的異議:
「如果我們的策略不能說服高高在上的哲學家,至少我們的技術將徹底改變我們生活的世界。」
AI的進步
儘管湧現出大量問題,但是我們不能質疑AI的進步。不管怎樣,目前得益於技術的進步出現了很多不錯的AI應用。如果忽略它們的存在去衡量當前研究質量是沒有意義的。
深度學習是否能成為實現機器智能的有效工具?還是說,這是AI進入寒冬之前另一個間冰期?
更重要的是,人們關注的角度已經開始從純粹的哲學問題轉向社會層面,而AI對日常生活的需求已遠比理解概念、哲學和智能本身更加明顯和迫切。不過,這種轉變可能是一個更難以回答的問題,進而促使我們深入研究。
當維特根斯坦(Wittgenstein)撰寫《邏輯哲學論》的時候,他面臨著為難的選擇:他的論點與他的學說相悖。也就是說,如果他的學說是正確的話,那麼他的論點就是不合邏輯的,因此他的學說應該是錯誤的。但是維特根斯坦對此有不同的看法:
「我的論點可以這樣解釋:當人們從開始學習到徹底理解後,便會認為它毫無意義。」
因此,我們需要用發展的眼光去理解隱含在複雜概念背後的真理。我們要堅定地邁出前進的步伐,也要做好隨時放棄的準備。因為並不是每一步探索的結果都是正確的,但是我們需要理解每一步探索的過程。所以後來,當維特根斯坦談到這個論點時,他說自己不需要梯子就能夠直達真理。
或許在AI的發展過程中,我們仍然需要參考維特根斯坦的論點。
https://medium.freecodecamp.org/deeper-ai-a104cf1bd04a
【今日機器學習概念】
Have a Great Definition
開課倒計時7天
數據科學實訓營第5期
優秀助教推薦|土豆
現今紛紛擾擾的數據科學培訓市場,是不是早已讓你眼花繚亂,無處落足,還沒有找到組織?不必慌張,土豆老司機拉住你的手,語重心長的要為你指條明道:究竟優質的數據科學教育培訓是什麼樣的?
課程乾貨滿滿還不失風趣,講師精力充沛還熱愛分享,助教認真批改還熱情反饋。
沒錯!數據科學實訓營就是這樣的明星課程!從基礎的 Python 編程和Scrapy爬蟲,到熟練運用 Numpy/Pandas/Matplotlib/Seaborn/Scikit-learn 等多種Python庫,打通機器學習的任督二脈,在真實的數據科學競賽案例和數據挖掘項目的打磨下,完成從數據科學小白到骨灰級玩家的華麗轉變!
作為第4/5期的實訓營助教,寄語小白學員:堅持跟上課程進度,按時完成所有作業,認真做好學習筆記,最終一定可以實現輕鬆入門數據科學哈!
志願者介紹
本文來自大數據文摘,創業家系授權發布,略經編輯修改,版權歸作者所有,內容僅代表作者獨立觀點。[ 下載創業家APP,讀懂中國最賺錢的7000種生意 ]
※山東經濟真的不行了嗎?
※鯊魚也會吃草?研究發現窄頭雙髻鯊能高效消化海草
TAG:創業家 |