當前位置:
首頁 > 文史 > 我們離通用人工智慧還有多遠?

我們離通用人工智慧還有多遠?

授權轉自:心智與實在

哲學園鳴謝

作者:戴維·多伊奇

譯者:王培

戴維·多伊奇是牛津大學物理學家和英國皇家科學協會的成員,是最早提出多重宇宙論的全球著名理論物理學家。他最新出版的一本書已有中文版,名叫《無窮的開始:世界進步的本源》。該書也得到了哈佛大學著名心理學家和認知科學家斯蒂芬·平克的推薦。譯者已讀完該書,受益匪淺。多伊奇在本文中詳盡探討了他對通用人工智慧的看法,其見地與侯世達似乎很接近。

在某些方面,人類大腦的能力遠超宇宙中所有已知的生命體,這一點是沒有爭議的。只有人類才能理解宇宙的存在;或者能夠理解為什麼存在著無窮多的素數;或者能夠理解由於時空的彎曲,蘋果會掉落;或者知道按照自己天生的本能行事可能會犯道德錯誤;或者能夠意識到自己的存在。人類的這些獨特能力似乎還不能僅用大腦中的物質來解釋。一個冷峻的物理事實在於,只有人類能把自己安全地送入太空,又安全地返回地球,或者能夠預測和阻止流星撞擊地球,或者能夠把物質的溫度降低到離絕對零度只差十億分之一的程度,或者能夠在銀河星系內探測外星生命。

然而,地球上沒有任何一個人接近於了解,為了實現上面所提到的那些能力,大腦究竟做了些什麼。人為實現這些能力的事業——「通用人工智慧」領域,或者簡稱AGI——自它起步以來的60年間沒有取得實質進展。

為什麼?正如一個不知名的智者曾經所說的那樣,「給我們造成麻煩的,並不是我們的無知,而是我們對自己並不了解的事物堅信不疑」(如果你知道這個智者是馬克·吐溫的話,那麼你就不會對自己擁有的知識抱有那麼堅定的信心了)。我不知道還有哪個重要的知識領域,其主流認知充斥著如此根深蒂固、自我強化的根本錯誤,不管是在整個社會還是在專家當中。人工智慧已成為人類最自信的領域之一,認為該領域將很快實現根本性的突破。

儘管有著長時間的失敗歷史,通用人工智慧肯定是可以實現的。這是由物理規律的深層次性質所決定的,也即是演算法的通用性。演算法涵蓋了物理規律能夠讓物體所做的每件事,而從原則上講,這些事件的任何一個細節都能通過通用計算機上的某種程序加以模仿,只要我們給予它足夠的時間和記憶。第一個提出這種猜想並探索了其中某些問題的人,是19世紀的數學家查爾斯·巴貝奇和他的助手阿達·洛芙萊斯伯爵夫人。直到1980年代,當我用量子計算理論證明了演算法的通用性時,它仍是一種猜想。

巴貝奇所提出的通用性是一條沒有前途的路徑。事實經常告訴他,數學函數表(比如,對數和餘弦)包含著錯誤。那時,這些數學函數表是由一群職員彙編起來,他們被稱為「計算者」,這就是後來計算機這個詞的來源。作為人類,這些計算者是會犯錯的。儘管有精緻的糾錯系統,但對人來講,校正印刷上的錯誤都是一個極大的噩夢。犯這種錯誤不僅很麻煩,而且代價很大:它甚至會鬧出人命。比如,函數表被廣泛應用於航海。因此,巴貝奇設計了一種機械計算器,並把它稱之為「差分機」。它被預裝了一些齒輪,能夠驅動一台印表機,從而自動列印函數表。這就將差錯率降到了可以被忽略的程度,為人類帶來了永久性的便利。

不幸的是,巴貝奇的工程管理技能太差,以致於儘管他花掉了自己和英國政府的大量資金,還是沒能把計算機搞出來。然而,他的設計是可靠的,後來被在倫敦科學博物館工作的工程師多倫·斯瓦德帶領一幫團隊製造了出來。

這種認知任務只有人類才能完成。在已知的宇宙中,沒有任何物種能接近人類的能力,但差分機可以比最有能力的人表現得更好。因此,甚至是在自動計算處於早期歷史的蹣跚階段——在巴貝奇設想出類似通用人工智慧的概念之前——我們就已經看到了直到今天仍有爭議的哲學困惑的苗頭:人類計算的能力與差分機的能力之間到底有什麼區別?什麼類型的認知任務是一種物體能夠完成,而另一種物體原則上不能完成的?

兩者之間一個直接的差別在於初級步驟(比如,計數、加、乘以10,等等)的序列,而差分機計算給定函數所使用的序列並不是根據人類「計算者」所使用的方法來設計的。也即是說,兩者使用了不同的演算法。就結果而言,這不是一種根本性的差異:差分機可以用額外的齒輪和槓桿來調校,從而可以精確模仿人類的計算方式。然而,由於更複雜的機器增加了故障的數量,這種調校沒有達到目的,反而提高了差錯率。類似地,在不改變硬體(生理)、只教授不同計算方法的情況下,人類也能夠模仿差分機方法的每一個細節——只不過這麼做實際上是一種倒退。人類體現不出差分機的主要優勢,也即它的準確性,而這種優勢取決於硬體,而不是軟體。它只會讓這一艱苦而無趣的工作變得更艱苦、更無趣,而這又可能導致人類犯更多的錯誤,而不是更少的錯誤。

對人類而言,計算同樣的表格,結果卻有差別——不同的差錯率——這顯然是由兩種不同演算法的差異所造成的。這一事實讓人產生了異樣的感受,但差分機卻沒有這種感受,因為它沒有感覺。差分機絕無可能體會到無趣,而人類則可以。在諸多認知任務上,前者都不如後者,這算是其中一例。差分機也無法像巴貝奇那樣知道或證明,如果兩種計算方式能被正確使用,它們可以得出一樣的結果。差分機更不可能擁有類似巴貝奇那樣的心理願望,希望讓自己惠及航海船員和人類福祉。事實上,它的功能只局限在評估一小部分專門的數學函數上(基本上就是計算單一變數的冪級數)。

在思考如何才能增加差分機的功能時,巴貝奇首先意識到,差分機運行的編程階段本身應該實現自動化:齒輪的初步設置可以被編碼到穿孔卡片上。然後,他提出了一個劃時代的想法。差分機可以被調整用於衝壓新的卡片,並存儲這些卡片,以備今後之用,這就是我們今天所說的計算機存儲。如果它能運行很長時間——就像他所設想的那樣,由蒸汽機提供能量——並且能為它提供不限量的空白卡片,它的功能就會從完成一小類的數學函數計算擴大到任何具有計算能力的物理客體能執行的所有類型的計算。這就是演算法通用性。

巴貝奇把這種改進的機器稱為「分析機」。他和洛芙萊斯知道,這種通用性具有革命性的力量,能改進幾乎科學研究和製造程序的每一個方面,也能造福於人類的日常生活。關於分析機的具體應用,他們提出了極富前瞻性的構想。他們知道,它可以被用於做代數運算、下棋、譜曲、處理圖片,等等。與差分機不同,人們可以對它編寫程序,讓它採用人類所使用的數學函數計算方法,並且它能夠證明這兩種方法都能給出一樣的結果,也能做同樣的差錯檢查和校對(比如說,使用具有視覺特徵的認知方法)。

不過,這種分析機能感受到同樣的無趣嗎?它能感知事物嗎?它想要造福人類嗎(或者造福分析機群體嗎)?它可以不同意程序員對它的編碼嗎?這些問題是巴貝奇和洛芙萊斯回答不了的。他們認為,人類大腦的某些認知功能是超越了計算通用性範疇的。洛芙萊斯寫道,「分析機不會假裝創造了任何事物,它只能做我們知道如何讓它去做的事情。它可以分析事物,但它沒有能力預測任何分析性的關係或知識。」

然而,「創造事物」、「做出分析」和「預測分析性的關係和知識」都是人類大腦的行為,因此,也可以說是構成了大腦的原子的行為。這些行為都是遵從物理規律的。所以,演算法通用性意味著,只要按照正確的程序,一部分析機也能做出人類的這些行為,一個原子接著一個原子,一個步驟接著一個步驟。的確,大腦中的原子能夠用金屬齒輪和槓桿而不是器官材料來模擬——但在當前階段,認為能把這些物質生成為獨立的心智實體,還是一件過於遙遠的事情。

巴貝奇和洛芙萊斯想把他們對分析機的熱情傳遞給他人,為此,他們做了最大的努力,但最終還是徹底失敗了。在本可能會改變人類歷史的事件中,通用計算機的想法算是其中一個,但這一概念逐漸在人們頭腦中消失了。直到20世紀,當阿蘭·圖靈寫出一系列關於心智的精巧傑作,才為經典計算理論奠定了基礎,界定了計算能力的局限性。圖靈也參與到了最早的通用經典計算機的設計之中,並幫助破解了德軍機密,為二戰盟軍的勝利做出了貢獻。

圖靈完全理解通用性。在1950年的論文《計算機器與智能》中,他用通用性概念駁斥了他所謂的「洛芙萊斯夫人異議」以及其他合理或不合理的每一種異議。他的結論是,包括了人類大腦所有獨特功能在內——感受、自由意志、意識以及其他——的計算機程序是可以被編寫出來的。

這一令人震驚的觀點將學術圈撕裂為了兩個陣營,一邊堅信通用人工智慧是不可能實現的,另一邊則認為它即將來臨。兩邊的看法都是錯誤的。首先,每個陣營都引用了大量理由,從超自然的理由到邏輯混亂的理由,並且剛開始這些理由都擁有極大的影響力。但所有人都犯了一個共同的錯誤:他們根本不理解演算法的通用性對於自然世界、尤其是對於人類大腦意味著什麼。

不過,有一個陣營犯下的基本錯誤對人工智慧的停滯不前負有責任。他們錯誤地認為,人類大腦與其他物理系統在功能方面的所有區別都是根本性的,因此,計算機程序所具有的其他特點都無法被用於實現大腦的具體功能。不可能存在一種編程技術,能夠讓計算機實現大腦的功能。也不可能通過不斷改進計算機程序在執行任務上的表現來做到這一點,無論這種表現能做到多麼好的程度。

為什麼不能?我把處於問題焦點的核心功能性稱為「創造力」:提出新的解釋的能力。比如,假設你想讓某人為你寫一個計算機程序,將溫度度量標準從攝氏度改成華氏度。即便是差分機也能做到這一點。像分析機這樣的通用計算機就更是可以用多種方法來實現它。為了讓程序員明確具體要實現的功能,你可能會,比如,提供一個很長的清單,上面有你想輸入到程序中的內容(比如說,從-89.2到+57.8之間的所有數字,以0.1為單位遞增),以及相應的正確的輸出內容,於是在每一種情況下,程序都能查找出答案。另一種方法是,你可以編寫一個演算法,比如,「除以5,乘以10,加上32,四捨五入到最接近於第10個位置的那個數字」。關鍵在於,無論程序如何運行,如果它總能在設定的溫度範圍內正確轉換你給它的任一溫度數字,那你就可以認為它滿足了你的具體要求——成為了「善解人意」的溫度轉換器。

現在,設想你要求一個程序有更複雜的功能:解決理論物理學中的某個難題——比如說,暗物質的性質——並為之提出一種新的解釋,該解釋既可靠又嚴格,還能符合學術刊物的出版標準。

這種程序就可以被假定為是通用人工智慧了(至少達到了這個標準)。但你該如何把這樣一個具體的任務指定給計算機程序員呢?先不用管它比溫度轉換更複雜這一事實:還有更根本的困難。假設你給了程序員一張暗物質解釋的清單,就像編寫溫度轉換程序所做的那樣,而這些解釋的輸出方式是該程序可以接受的。如果稍後該程序確實輸出了那些解釋中的其中一個,那也不能算是滿足了你的要求,因為它沒能提供新的解釋,那些解釋都是已有的解釋:那是你為了寫出編程指引,自己事先提供的一些解釋。因此,在這一案例中,實際上在所有為真正的通用人工智慧編程的案例中,如果一個演算法能實現它想要實現的功能,那就算成功了。然而,寫出那樣一種演算法(不是先有物理學的發現,再把它寫進程序)正是你希望程序員做到的事情!(譯註:作者在這裡的意思是,程序員如果能寫出那樣一種演算法,他就已經解決暗物質問題了,而這種難度是可想而知的)

傳統意義上,人們對通用人工智慧的討論僅僅強調對程序的測試,而不是強調如何撰寫編程指引——傳統的程序測試是由圖靈自己提出來的。圖靈測試是指,當人類用某種純粹的文字媒介——以便只考察認知能力對結果的影響——與程序互動時,人類無法分辨該程序究竟是人類還是機器。但這一測試純粹運用了行為主義方法,並沒有真正回答該程序是否滿足了通用人工智慧的標準。該測試也沒能滿足「進化演算法」的評判標準:如果不首先知道如何編寫通用人工智慧程序,圖靈測試本身是無法實現智能自動化的,因為要對一個程序做出「判斷」,這種判斷本身就需要具備目標能力(target ability)(關於我認為生物進化如何從一開始就賦予了我們這種能力,參見我的《無窮的開始》一書)。

無論如何,通用人工智慧絕不可能用純粹的行為主義來定義。在經典的「缸中之腦」思想實驗中,當大腦信息輸入和輸出的管道被暫時切斷時,大腦仍能思考、感受、提供解釋——它仍然擁有通用人工智慧的所有認知特徵。所以,通用人工智慧程序的相關特徵不僅僅是由程序的輸入和輸出構成的。

結果便是,不像以往任何通過編程而實現的功能,通用人工智慧既不能通過編寫程序指引,也不能通過對輸出結果的測試來實現。它需要哲學上的突破,需要一種新的認識論,從而可以解釋大腦是如何產生解釋性知識的,由此可以在原則上定義哪些演算法具有通用人工智慧的功能性,哪些演算法沒有這樣的功能性,並且也不需要把這些演算法當作程序來運行。

這種認識論超越了今天的知識。我們對認識論的理解告訴我們,只要沒有哲學上的突破,任何試圖建立通用人工智慧的方法都是無效的。不幸的是,我們所理解的認識論大多包含在哲學家卡爾·波普爾的著作中,而它們的重要性被普遍低估和誤解了(甚至——或許尤其——是被哲學家低估和誤解了)。比如,幾乎每個科學家都理所當然地認為,知識是由被證實的真信念所構成的,因此,通用人工智慧的思維必須包含某些程序,這些程序能夠證實它所提出的理論是否為真,或者是否是可能的,同時拒斥那些假的或不可能的理論。然而,通用人工智慧的程序員需要首先知道這些理論來自於哪裡。流行的誤解在於,通過假設「未來會重複過去」,通用人工智慧就能通過所謂的「歸納法」,從反覆出現的經驗中「獲得」(或「推斷」,或「概括」)理論。然而,這是不可能做到的。比如,在連續觀察了數千次之後,我記住了日曆上年份的前兩個數字是「19」,而我從來沒觀察到例外的情況,直到有一天,日曆的數字變成了以「20」開頭。我不會為此感到驚訝,我完全預計到,還需要經過17000年,日曆的數字才會再次以「19」開頭。如此長的時間間隔,不僅我沒有機會,所有經歷過「19xx」年代的人,也沒有機會再次經歷以「19」開頭的年份了。

我是怎麼從連續的經驗模式「預計」到從「19」到「20」的顯著轉變的呢?我又是如何知道接下來會出現一個從來沒有觀察到的進程(17000年的間隔)?因為知識不僅僅來自於對重複觀察的推測。如果一個人不知道一種現象的理解解釋,就敢提前預測未來,那麼「未來會重複過去」這一前提就不會是真的。實際上,未來可能在大多數方面都與過去不同。當然,如果知道了現象的解釋,那些巨大的「變化」在19xx年代的早期就能被預計到了,因為這背後有著不變的潛在模式或規律。但解釋總是發生在預測之前。如果沒有這樣的解釋,同樣的事情以連續有序的方式反覆發生,這一現象就需要得到解釋。

所以,為什麼通過歸納法獲得理論仍是我們的傳統智慧?當然,出於某些原因,這超出了本文探討的範疇。實際上,傳統智慧也無法擺脫所謂的「歸納難題」,也即是:「為什麼會有歸納,它是如何運作的,而且竟然能產生被證實的真信念,儘管歸納既不可能發生,其所產生的結論也並不可靠?」由於存在這一難題,每一次反駁(就像波普爾和大衛·米勒在1988年的辯論一樣),不僅沒有終結歸納主義,還導致科學界的主流人士驚嘆於對偉大的「歸納難題」的深度產生了更大的敬畏。

在如何看待通用人工智慧的問題上,把它看成是一種「歸納難題」,這種看法帶來了嚴重的負面後果,使得通用人工智慧問題看起來很容易解決,因為它把思維看成是一個預測過程,感官經驗的未來模式會跟過去的模式一樣。這看上去就像是在預測——計算機總是在做預測(一旦它們被給予了數據是如何產生出來的理論)。但在現實中,只有很小一部分思維是與預測有關的,更不用說我們感官經驗的預測了。我們對於世界的思考不僅僅與物質世界有關,還與抽象世界有關,比如,對與錯、美與丑、無窮大與無窮小、因果、虛構、恐懼和抱負——以及關於思考本身。

現在,我們要從另一個角度來談真理。知識是由對猜想的解釋構成的——在所有類型的世界中到底哪些猜想是真實存在的(或者真的應該存在,或者可能存在)。即便在硬科學中,這些猜想也是不著邊際的,而且也不需要得到證實。為什麼?因為真實的知識儘管顧名思義的確包含了真理,但也幾乎總是包含錯誤。因此,我們所謂知識的真,不是數學和邏輯意義上的真。思考包括了批評和修正部分為真的猜想,有意發現和消除錯誤和其中的誤解,而不是僅僅從感官數據中產生或證實猜想。因此,試圖創建通用人工智慧,讓它做到後一種思考,就像祈禱上帝把創世發生在火星上並創造生命一樣,是不可能的。

當前,有一種最具影響力的歸納法版本被用在了通用人工智慧(和科學哲學)上,那就是貝葉斯主義。這個名字取自18世紀數學家托馬斯·貝葉斯,這對他來講是不公正的、無辜的。該主義認為,心智的工作方式是通過將概率賦予人們的思想,然後用經驗來修正那些概率,從而選擇如何行為。當涉及到通用人工智慧的價值觀時——與通用人工智慧的選擇和意圖有關的道德觀和美學觀——這種方法是尤其有害的,因為它只賦予了通用人工智慧行為主義模式,被「經驗」所「獎勵」的價值觀得到「強化」,成為主導行為,而那些被「經驗」所「懲罰」的價值觀則被消滅。正如我在前面提到的,行為主義的輸入輸出模式適用於大多數計算機程序,而不適用於通用人工智慧,而且這條路對於通用人工智慧來說也走不通。諷刺的是,主流心理學大多拒斥行為主義,認為它是不全面的、不符合人性的,然而計算機科學由於對歸納主義存在著哲學意義上的誤解,仍試圖用行為主義的方式來產生與人類心智一樣的認知能力。

此外,儘管前面提到了大量我們給出了科學解釋的現象,但我們給出這種解釋的核心方法——也即是波普爾式的猜想和反駁——有著自己獨立的、統一的邏輯。因此,通用人工智慧中的「通用」一詞也需要得到準確理解:計算機程序要麼具有波普爾式的不可全知的求真邏輯,因此可以像人類一樣思考任何事物,包括思考自身和思考如何改進自身;要麼它就不具有這種邏輯,因此就不是真正意義上的通用人工智慧。於是,又出現了另一種毫無希望的通用人工智慧方法,也即是,從現有的知識出發,通過編程來執行具體的任務——比如,下棋、執行統計分析、搜索資料庫——然後試圖改進這些程序,以期這種方法能在無意中產生通用人工智慧,就像《終結者》電影中突然出現「天網」一樣。

如今,AI領域加速湧現出大量令人驚嘆的、具有實用價值的應用,有些最新的應用甚至比預想的速度出現得更快。AI圈通常歡迎這些技術上的進展,並認為他們正在接近於實現通用人工智慧,但這是一種既不令人驚嘆也不那麼有用的看法。這種信心的一個尤為明顯的例子發生在最近,由IBM開發的一個名叫沃森(Watson)的搜索引擎擊敗了一個名叫「危險」(Jeopardy)的字謎遊戲節目的最佳選手。美國公共電視台的系列紀錄片《Nova》稱沃森為「地球上最聰明的機器」,並認為它「用軟體模仿了人類的思考過程」。弔詭的是,這正是它沒能實現的任務。

像玩「危險」遊戲這樣的任務——就像我們今天會為每一個電腦應用感到驚嘆一樣——是完全能夠用標準化的、行為主義的方式來完成的。在沃森所給出的答案中,沒有任何一個可以作為新的科學發現發表在期刊上。在玩這個遊戲時,人類使用創造力來產生潛在的猜想,雖然輸給了機器,但這並不意味著機器已經接近了人類的認知能力。正好相反,人類和機器所使用的是兩種完全不同的方法。同理,當一個電腦程序在象棋上擊敗了一個大師時,他們所使用的也是完全不同的演算法。象棋大師可以解釋為什麼從戰略角度考慮犧牲馬是划算的,並且能以這個主題寫一本書出來。但機器只能證明犧牲棋子會不會把對方將死,而且它也不能為此寫本書,因為它根本不理解下象棋的意義是什麼。解決通用人工智慧問題與玩「危險」遊戲和下象棋不是一回事。

不同於所有其他計算機程序,通用人工智慧所涉及的是定性問題,而不是定量問題。類似突然出現「天網」所造成的誤解同樣也對人們看待通用人工智慧造成了誤解,認為通用人工智慧具有複雜系統的湧現性質,或者不斷增強的計算能力最終會導致通用人工智慧的產生(就像某人已經寫好了一個通用人工智慧程序,但花了一年的時間它才說出第一句話)。事實上,大腦的獨特能力要歸咎於它「大規模的並行處理」能力,或者歸咎於它的神經元結構。這兩種原因都不符合演算法通用性。在沒有詳盡理解大腦是如何工作的前提下去期待通用人工智慧的出現,就相當於期待只要把摩天大樓修得足夠高,它就能學會飛起來。

1950年,圖靈預計,到了2000年,「人們可以談論機器思考而不覺得有什麼怪異之處」。1968年,亞瑟C.克拉克(Arthur C. Clarke)預計,2001年可以做到這一點。然而,現在已經是2012年,還沒有人在探索通用人工智慧方面比圖靈本人做得更好。

這一事實並不會讓第一個陣營的人感到驚訝,他們屬於數量日漸減少的通用人工智慧的悲觀派。但對另一個陣營的人(通用人工智慧的出現近在咫尺),這一失敗的歷史需要得到解釋——或者至少需要讓這種失敗顯得合理。事實上,他們沒有為失敗的事實感到苦惱,因為他們對通用人工智慧能力的更大期待讓他們不屑於為失敗的經驗提供合理化的解釋,他們的期待甚至會比以往更甚。

「通用人工智慧」這一術語就是一個典型的例子。該領域曾經使用「AI」這個術語——人工智慧。但「AI」逐漸被用於描述與通用人工智慧不相關的計算機程序,比如,下象棋、搜索引擎和聊天機器人,直到「通用」(G)這個詞被加入進來,人工智慧似乎就變得高大上了。但現實情況是,通用人工智慧只是比聊天機器人稍微聰明一點的物種。

另一種合理化的解釋是這樣理解「通用」概念的:通用人工智慧並沒有那麼了不起;現存的軟體已經足夠聰明或已經變得更聰明,但不是人類的那種聰明,我們賦予它太高的期望是不切實際的,也是文化上的偏見。這一觀點引起了一些爭議,從負面意義上講,它暗合了一直流行的作為非理性主義的文化相對主義;從正面意義上講,它又與如下看法有關:「我們人類為自己是動物之王而自豪,但這種自豪用錯了地方,因為動物也有語言、工具……和自我意識。」

還記得我們曾經賦予「天網」以「自我意識」嗎?那是另一種哲學誤解,它本身就足以妨礙任何通向通用人工智慧的可行方法。現實情況是,當今的軟體開發者只能在行為主義層面讓程序具有「自我意識」——比如,可以使程序通過「鏡子測試」,能讓程序用鏡子來推斷自己的存在——如果程序員想要這麼做的話。據我所知,沒有程序員做過這種事情,也許是因為這是一種很沒有實用價值的能力,也是一種微不足道的能力。

也許,與通用人工智慧有關的自我意識之所以沒能得到人們重視,是因為庫爾特·哥德爾的理論以及20世紀出現在形式邏輯上的各種爭議,讓任何類型的自指因其神秘性而獲得了巨大的聲譽。因此,意識也是如此。在這裡,我們又碰到了一個含義模糊的術語問題:「意識」這個詞具有廣泛的含義。在含義譜系的一端,它是一個哲學問題,涉及主觀感受性(qualia),而這正是通用人工智慧想具備的能力。在另一端,「意識」僅僅是指,當我們處於麻醉狀態時,我們失去的那種東西。很多動物都有這類意識。

真正的通用人工智慧應該具有自我意識——因為這是「通用」的應有之義:它們能夠意識到每一種深奧而微妙的現象,包括它們自身。但這不意味著能夠通過鏡子測試的猩猩具有人工版本的通用人工智慧所具有的「通用智能」特徵。事實上,理查德·伯恩(Richard Byrne)對大猩猩行為的卓越研究表明,猩猩能夠從同類那裡學會有用的行為,而不需要理解它們的行為目的:這解釋了猩猩的認知方式實際上是行為主義式的。

諷刺的是,為通用人工智慧提供合理化解釋的那個陣營(通用人工智慧已經實現了/是微不足道的/存在於猩猩中/是一種文化自負)正好印證了通用人工智慧悲觀論陣營的觀點。對於每一種悲觀論點,比如,「你不可能實現通用人工智慧,因為你絕不可能將人類靈魂編入程序,因為靈魂是超自然的」,樂觀陣營都會提出反駁,「如果你認為人類認知能力在性質上不同於猩猩,你就必須相信存在著超自然的靈魂。」

還有一種對失敗的合理化解釋,認為「任何我們尚不知道如何寫入程序的東西就是人類智能」。這一觀點是由哲學家約翰·塞爾(屬於悲觀派)提出的,他指出,在電腦出現之前,蒸汽機和稍後出現的電信系統也被類比為人類大腦的運作方式。塞爾認為,對通用人工智慧的期待基於類似的不恰當的比喻,也即是認為心智在「本質上」就是一種計算機程序。但那不是一種比喻:演算法的通用性是符合已知的物理規律的。

還有一些人,比如數學家羅傑·彭羅斯,認為大腦使用的是量子計演算法,或者甚至是超量子計演算法,這些方法依賴於超越了量子理論的尚未知曉的物理定律,這就解釋了為什麼現有的計算機無法實現通用人工智慧。要解釋為什麼我和大多數量子計算理論的研究人員不認同彭羅斯的觀點,超出了本文的探討範疇(如果你想了解更多的相關內容,可以參閱利特(Litt)等人於2006年發表在《認知科學》期刊上的論文《大腦是一台量子計算機嗎?》(『Is the Brain a Quantum Computer?』))。

從一開始,通用人工智慧每一方面的含義都指向了人類智能。如果一個程序哪怕只有一種認知能力不符合人類的特徵,從定義上講,它就不算是通用人工智慧。使用非認知特徵(比如,碳基物質的構成比例)來定義人類也是不恰當的。但問題在於,創造新的解釋是人們(人類和通用人工智慧)獨特的、在道德和智力上具有重要功能的能力,他們是通過猜想、反駁和改變一切事物來實現這種能力的。

當前,人類通常是從象徵意義而不是從事實意義上來被看待的——為了表達敬意,我們故意將一個實體(一隻猩猩、一個胎兒、一家公司)視為一個人,以便實現某些哲學或現實的目標。但這不是一種好的做法。我們不應該糾結於術語,如果你願意的話,可以換一種術語,實際上我們也有其他理由尊重對待不同的實體,讓它們免受傷害,等等。同樣,由客觀標準所定義的人類與其他實體之間的區別具有極大的道德和實踐重要性,因此也對包括通用人工智慧在內的文明的運行至關重要。

比如,如果把運用的程序而不是電腦看成是一個人,一旦通用人工智慧生物出現,這一看法就會產生無法解決的哲學問題,從而引發實踐爭議和政治爭議。一旦一個通用人工智慧程序正在電腦上運行,為了阻止它的運行,電腦就會成為一個謀殺犯(或者至少有可能會被錯誤地囚禁或奴役),就像從身體中剝奪了人的心智一樣。但與人類的身體不同,一個通用人工智慧程序可以被一鍵複製到無數的電腦上。儘管它們執行的仍是相同的步驟(也即是,在它們因為可以做出隨機選擇或經歷不同的體驗而各具差異之前),那些程序算是一個人,還是很多個不同的人?它們有一張選票,還是很多張選票?刪除它們中的一個是屬於謀殺,還是輕微傷害?如果有些混蛋程序員,在一台電腦或者很多台電腦上,非法地創造了數十億個不同的通用人工智慧生物,又會發生些什麼呢?它們仍然是人,擁有權利。但它們都有選票嗎?

此外,通用人工智慧就像任何其他具有創造力的實體一樣,我們必須忘記「程序」這一術語的現有內涵。像對待其他電腦程序一樣對待通用人工智慧,會帶來洗腦、奴役和獨裁等現象。對於孩子而言,很殘忍的一點是,不像其他編程行為,為一個正在運行的通用人工智慧編寫程序實際上就是在教化人工智慧。這會帶來道德和事實爭議。忽視通用人工智慧的權利和人格不僅是邪惡的,還是一種災難:有創造力的存在不應該永遠處於被奴役的狀態。

有些人很想知道,我們是否應該歡迎我們的新機器君王。有些人希望知道我們如何操控它們的程序,好讓它們不至於傷害人類(就像艾薩克·阿西莫夫的「機器人學法則」),或者阻止它們獲得這樣一種理論:宇宙應該被改造成回形針(就像尼克·博斯特羅姆所想像的那樣)。這些都不是真實存在的問題。現實生活中,總有個別的人特別有創造力,其產出——經濟上的、智識上的或其他方面的——比大多數人高出數千倍,但如果這個人把他的能力用於邪惡,其所造成的危害也是巨大的。

這些現象與通用人工智慧無關。善與惡的觀念鬥爭就像人類歷史一樣古老,無論這些觀念所運行的硬體是什麼樣子,這些鬥爭都會持續下去。問題在於,我們想讓智能具有(道德上)的善念,並總能擊敗邪惡的生物智能和人工智慧,但我們也會犯錯,我們自己對於「善」的理解也需要持續不斷的改進。為了取得進步,社會應該如何被更好地組織?「奴役所有的智能物」是一種災難性的錯誤答案,「奴役所有與我們不同的智能物」也不是一個更好的主意。

這意味著,我們必須停止將教化(對於人類或通用人工智慧的教化)視為執行說明書——運用已有的不能修改的知識,絕對順從已有的價值觀。正如波普爾所寫道的(他的文字是寫於科學發現的語境下,但它同樣可以應用於設計通用人工智慧和教育孩子):「通過複製說明書,或者通過從觀察中歸納出說明書,或者通過環境提供說明書,我們是不可能發現新的知識或新的理論的,因此,也就沒有說明書可言了。相反,我們是使用試錯法來獲取知識的。」也即是說,我們使用的是猜想和反駁。學習必定是新創造的智能物為了自己所做、所控制的事情。

我提及所有這些哲學問題,並不是因為我擔心在我們發展出哲學思想來理解通用人工智慧,並將其整合進人類文明之前,它們就已經出現了。完全相反,我相信,發展通用人工智慧所面臨的所有問題都是哲學問題,而不是計算機科學或神經生理學問題。哲學的進展對於通用人工智慧未來的整合至關重要,也是發展通用人工智慧的先決條件。

通用人工智慧之所以進展緩慢,是因為我們對它的停滯不前有嚴重的誤解。沒有波普爾的認識論,人們甚至無法知道,為了設計出通用人工智慧,我們應該讓它實現哪些具體的功能。波普爾的認識論並非廣為人知,更不用說它沒能得到很好的理解,並被投入到實際應用之中。將通用人工智慧設想為一種機器,可以將經驗、獎勵和懲罰轉化為思想(或者更糟的是,轉化為行為),就好比試圖通過平衡身體體液來醫治傳染疾病一樣無效,因為兩者都基於古老而又嚴重錯誤的世界觀。

如果不理解通用人工智慧的功能在性質上與其他類型的電腦程序完全不同,一個人就是在做無用功。如果一個人沿著程序的方向前進,而程序的「思考」本質上無法打破業已存在的局限,那麼這個人的努力就是在遠離人類智能的真正特徵:也即是創造力。

找出停滯不前的原因並不能提供解決問題的答案。然而,答案並不總是那麼難以找到,如果從人類智能的角度來考慮的話。明白了目標能力是人類根本性的能力,會帶來另一種後果,那就是,既然人類擁有這種能力,而猩猩沒有,那麼如何實現這種能力的答案就必定就蘊藏在人類DNA和猩猩DNA的細微差別之中。因此,從某個方面來講,我是站在通用人工智慧樂觀陣營里的:突破橫亘在我們和通用人工智慧之間的障礙,只需要解決我所提到的那個問題就可以了。然而,這可能也是有史以來最難的問題之一。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 哲學園 的精彩文章:

論近代西方哲學與現、當代西方哲學的關係
你是一個內心強大的人嗎?

TAG:哲學園 |