當前位置:
首頁 > 新聞 > 怎麼辦?機器帶來的新型知識我們無法理解

怎麼辦?機器帶來的新型知識我們無法理解

4月21日消息,國外科技網站Backchannel撰文稱,我們的機器如今擁有我們無法理解的知識。我們正日益依靠能夠自行創造出模型來得出結論的機器,但那些模型往往超出人類的理解範疇,會以不同於我們的方式來「思考」這個世界。




以下是文章主要內容:


「海量數據的可用性,以及用來分析這些數據的統計工具,帶來了全新的理解世界的方式。相互關係取代因果關係,即便沒有一致的模型、統一的理論或者機械論解釋,科學也能夠取得進展。」


《連線》前總編輯克里斯·安德森(Chris Anderson)在2008年如是寫道。當時這引發了一番激烈的爭論。例如,有篇刊登在分子生物學期刊的文章問道,「……如果我們停止去尋找模型和假說,那我們所做的還是科學嗎?答案顯然應該是『不。』」

但如今——與安德森的文章相隔還不到10年時間——該爭議聽起來很怪異。在我們全新的強大的網路化硬體的助力下,計算機軟體的種種進展正使得計算機不僅僅能夠不用模型(表達系統元素如何相互影響的規則集)就能運作,還能夠生成自己的模型,儘管那些模型看上去可能不大像是人類創造的。隨著各家科技公司紛紛「以機器學習為先」,這甚至在變成標準的方式。


我們正日益依靠能夠自行創造出模型來得出結論的機器,但那些模型往往超出人類的理解範疇,會以不同於我們的方式來「思考」這個世界。


但這也帶來了代價。如此引用異類智能,正引發我們對長久以來的西方傳統中植入的假設思維的疑問。我們原來認為知識關乎在混亂中找出秩序來。我們原來認為知識關乎簡化這個世界。現在看來我們似乎是錯誤的。認識這個世界或許需要我們放棄去理解它。


超出人類理解範疇的模型


在有關機器學習的系列文章中,亞當·蓋特吉(Adam Geitgey)解釋了基礎內容,從中可以看出這種新式的「思維」:


「有泛型演算法能夠告訴你一組數據有趣的地方,而且你完全不必針對問題編寫任何的自定義代碼。你給泛型演算法注入數據,而不是編寫代碼,然後它就會根據那些數據建立自己的邏輯。」


舉例來說,你給機器學習系統提供數千個潦草的手寫「8」掃描照,然後它會學習在新的掃描照中辨認「8」。它並不是通過得出我們所知道的規則(比如「8由上下兩個圓圈堆疊而成」)來辨認,而是通過尋找以數字矩陣呈現的複雜的暗像素模式——對於人類來說這項任務頗為艱巨。農業中最近也有個例子:同樣的數字模型技術讓計算機懂得了如何去將黃瓜分類。


接著,你可以通過打造用軟體模擬人腦處理信號的過程的人工神經網路,來讓機器學習更進一步。不規則網路的節點會根據從與其連接的節點而來的數據進行開啟或者關閉;那些連接有不同的權重,因此有的連接開啟相鄰節點的概率會高於其它的連接。儘管人工智慧網路可追溯到1950年代,但它們現在才形成氣候,這得益於計算性能、存儲和數字運算的進步。這一日益複雜的計算機科學分支可能會引發這樣的結果:經過如此多層神經網路的作用,深度學習在如此多不同的條件下根據如此多不同的變數得出大量的結果,人類會無法理解計算機自行打造的模型。


但這種模式是可行的。谷歌的AlphaGo項目正是這麼擊敗世界排名第三的圍棋大師的。給機器設計程序玩圍棋可比讓它去給黃瓜分類要艱巨得多,畢竟圍棋潛在的變化數達到10的350次方;國際象棋潛在的變化數達到10的123次方,宇宙中有10的80次方個原子。谷歌的硬體配置也不算特別驚人:它只有48個處理器,外加8個圖形處理器,這些剛好足夠進行所需的運算。


AlphaGo接受了發生於人類棋手16萬盤棋3000萬步棋的訓練,期間需要注意人類選手所採取的招式,以及理解什麼才算合規的下法,以及其它的基本規則。通過使用深度學習技術來定義神經網路層識別出的模式,該系統訓練自己理解怎麼下獲勝概率最高。

雖然AlphaGo已經證明自己是世界級棋手,但它並不能說出讓人類棋手能夠學習的實際原理。該程序並不是通過開發一般性的玩法規則來運作,而是通過分析特定棋局下怎麼下成功概率最高。相比之下,IBM玩國際象棋的Deep Blue計算機則編入了一些有關好招數的一般性原則。正如克里斯托弗·科克(Christof Koch)在發表在《科學美國人》(Scientific American)的文章中所說的,AlphaGo的智能依靠的是其模擬神經元之間的數十億個連接。它創造出的模型讓它能夠做出決策,但那個模型極其複雜,而且是有條件的。其巨量的應變計劃帶來的結果除了戰勝人類之外,別無其他。


因此,如果你想要用你微不足道的大腦去理解AlphaGo為什麼會選擇了特定的一步棋,其「解釋」很可能涉及加權連接的網路。那些連接會將其結果傳遞到下一層的神經網路。你的大腦不可能記得住所有的那些權重,即便它記得住,它也無法進行導致下一個神經網路狀態的那個運算。即便它能夠進行,你也不知道該如何去下圍棋,或者說不知道AlphaGo是怎麼下圍棋的——只是內化人類棋手神經狀態的運行原理,並不能幫助你理解他為什麼會下特定的一步棋。


圍棋只是遊戲,因此我們跟不上AlphaGo的決策路徑或許並不緊要。但如果是說神經網路將能夠讓我們分析雙基因疾病中基因的交互呢?如果是說使用神經網路來區分大型強子對撞機中單個粒子和多個粒子的衰變模式呢?如果是說使用機器學習來幫助辨別政府間氣候變化專門委員會所追蹤的20個氣候變化模型中哪一個是最準確的呢?這類機器可給我們帶來很好的結果——例如:「恭喜!你剛發現了希格斯玻色子!」——但我們無法跟上他們的「邏輯推理」。


很顯然,我們的計算機在辨識、發現模式和作出結論的能力上已經超過了我們。那是我們使用它們的其中一個原因。現在我們能夠讓我們的計算機將模型按需做得儘可能地大,而不用縮小現象來迎合相對簡單的模型。但這似乎也意味著,我們所知道的東西要依靠機器的輸出結果,而那些機器的具體運作我們卻是無法跟上,無法解釋,無法理解的。


自我們最早用木棍來刻凹痕以來,我們一直都是利用世界上存在的東西來幫助我們理解這個世界。但我們從未像現在這樣依靠並不符合人類邏輯推理模式的東西——我們知道每一個凹痕代表的是什麼——我們無法後續去理解我們沒有知覺的合作夥伴是如何得出那些答案的。如果說知識總是意味著能夠解釋和確證我們的真正信念——古希臘哲學家柏拉圖提出的概念,已經有兩千多年歷史——那我們要怎麼去理解一種新型的知識呢?要知道,這種知識不僅僅是難以去解釋確證,而是無法解釋確證。


兩個著名模型


1943年,美國陸軍工程兵部隊派義大利和德國的戰俘去打造史上最大比例的模型:200英畝大,表示美國41%連通密西西比河的國土面積。到1949年,它被用來進行模擬實驗,以判斷如果河水從這個點或者那個點湧入,城鎮會發生什麼狀況。該模擬試驗被認為幫助防止奧馬哈市在1952年出現洪災,要是沒有它,洪災可能會導致該城市遭受6500萬美元的經濟損失。事實上,有人甚至表示那些模擬實驗要比現有的數字模型更加準確。


水還是另一個著名的物理模型的重要組成部分:紐西蘭經濟學家奧爾本·威廉·休斯古·菲利普斯(Alban William Housego Phillips)於1949年打造的MONIAC(貨幣國民收入模擬計算機)經濟模擬器。MONIAC使用透明管道中的有色水分來模擬凱恩斯經濟政策的影響。它並沒有密西西比河模擬器那麼可靠,這可能是因為它沒有將影響國家經濟狀況的所有變數考慮進來。但經由像密西西比河這麼大的河流的水流也會受到很多人類無法列出的變數的影響。那密西西比河模型是如何得出與現實情況相差無幾的預測的呢?


如果你想要預測在急流的邊緣放置巨石的話會發生什麼,你不必去理解流體動力學的方方面面:你只需要建造一個將小岩石放進小的水流的比例模型。只要模型比例無關緊要,那你的模型就會給你答案。正如高級水力工程師斯坦福·吉布森(Stanford Gibson)就密西西比河流域項目所說的,「物理模型會自行模擬所有的過程。」


MONIAC利用水流來模擬經濟理論,「貯水池代表家庭、企業、政府和經濟體中的出口和進口部門」,代表收入、支出和GDP(國內生產總值)。它所考慮的變數受到可裝入一個冰箱大小的設備的閥門、導管和貯水池的限制。

密西西比河流域模型似乎沒有對會影響洪水的因素進行假設,除了假定除非你給該系統注入了更多的水,否則洪水不會發生。但當然,那並不是真實情況。該模型假定,全尺寸會發生的事情在1/2000尺寸時也會發生。事實上,該模型水平比例是1/2000,垂直比例是1/100,這種設計「可確保地形變化顯而易見」,這也導致落基山脈不成比例,離地面50英尺高。該模型的建造者假定山脈的高度不會影響其實驗的結果,這顯然是對的。同樣地,他們沒有模擬月亮的位置,也沒有在田地里種植微型莊稼,因為他們假定那些因素是不相關的。


因此,密西西比河的「無理論」模型行得通不只是因為「該物理模型會自行模擬所有的過程」,還因為該物理模型納入了有關重要的因素的假定,那些假定給模型的建造目的提供了準確的結果。使用密西西比河模型來模擬氣候變化的影響或者明輪推進器對藻類生長的影響,不會帶來可靠的結果,因為那些影響可能會受到不在模型當中的其它因素的影響,因為那些影響對於模型比例很敏感。


即便是在密西西比河模型奏效的情況中,我們也不理解它為什麼會行得通,怎麼會行得通。它並不是基於密西西比河流域的數學模型建造而成的,它是沒有生成這樣的模型就能奏效。確實,它行得通是因為它不需要我們去理解它:它讓模擬的物理現象自行去演變,而無需在它上面施加人類邏輯推理的限制。因此,這種模型比像MONIAC這樣的根據人類的理論和理解建造出來的模型要準確。


直到機器學習出現之前,我們除了手動設計模型然後讓計算機來實施之外別無選擇。我們假定,提升預測能力的途徑就是讓模型變得更加具體更加準確,同時給那些手工製作的模型積累更多更好的數據。由於那些模型是人腦的產物,知識和理解會是緊密相關的。


但事實上,那種假定是基於未表達出來的假定。


可知性假設


在佛羅倫薩的伽利略博物館,有一可追溯到1953年的渾天儀,在房間中它顯得特別大。它由多重金屬制和鍍金的木製齒輪組成,齒輪在外部的圓圈層裡面。將其外圍的子午環設定成「與地平線垂直,與實際的子午線平行」,然後將其朝向太陽或者已知的恆星,它就會準確地顯示天體的位置。這個模型可帶來有關物體在地球天空的哪個位置出現的可靠知識,但它所使用的模型卻是完全錯誤的。


這種渾天儀符合古希臘的理解:地球處在宇宙的中心,天體圍繞完整的圓圈運轉。要模擬行星在空中的非圓形的偏心運動,圓形齒輪必須要以複雜的方式與其它的圓形齒輪相連。


古代的理解讓我們覺得很神奇。但它最根本的假定跟我們的還是相符的:認識世界的條件是世界是可認識的。如果實體之間沒有相似性,所有的情況沒有統一的規律,物體沒有實質性的分類,差異性底下找不到簡單性,那麼我們就會處在不可知的混亂當中。


所幸的是,我們並沒有處在這樣的世界當中。得益於開普勒、哥白尼、伽利略、牛頓等人的貢獻,我們不僅僅能夠比最好的渾天儀更準確地預測天體的位置,還能夠以前所未有的方式去認識這個世界:有些對我們而言足夠簡單的定律讓我們能夠發現和理解它們。這些定律可應用於任何地方,可應用於任何事情上。它們代表宇宙的真理。

對我們來說重要的是,帶來知識的模型也能夠準確地反映世界的運轉方式。即使渾天儀所產生的結果跟牛頓定律是一模一樣的,我們也會堅持認為在牛頓定律之前出現的那個模型是錯誤的。我們會堅持認為,古代人並不理解世界的運轉方式,因為他們所使用的模型並不能反映實際狀況。


我們堅持認為,該模型反映世界的運轉,是因為我們假定模型所反映的世界是可認識的。


但我們現在有一種不同的模型。跟傳統模型一樣,它們能夠使得我們做出準確的預測。跟傳統模型一樣,它們能夠帶來知識。但有的新模型是無法理解的。


這些模型的成功或許給我們展示了一個古人和起源於他們的傳統意想不到的一個令人不安的真相。


後計算稀缺性時代


在誕生的頭50年里,計算機具有稀缺性。人們會為某一目的收集所需要的最低信息量,然後將那些信息整理成記錄。那種局限性構建到了計算機最初的信息消化媒介:打孔卡。這些打孔卡將信息變成了空間數組,那些空間數組之所以可讀,是因為數組和它的編碼是一致的。那種一致性剔除了差異、獨特性、例外情況和特異的東西。


當然,你可能會問為什麼打孔卡會成為被選中的機制。這至少部分因為歷史原因:赫爾曼·霍爾瑞斯(Herman Hollerith)所創辦的公司後來變成IBM,他使用的打孔卡能夠自動化1890年美國人口普查的計數流程。在18世紀末,打孔卡經過開發被用來控制提花織布機編織的圖案。


這些年來,計算機已經擴展了它們能夠處理的信息量,但直至我們將它們接入全球範圍的公共網路,變革才發生。計算機如今能夠容納互聯網上所有的信息。那些信息不僅僅包括龐大數據存儲庫的內容,還包括來自遍佈於陸地、海洋和天空的感測器的輸入信息。所有的那些信息的結構未經管制,因而促使處理採用人們意料之外的格式的數據的標準和協議的出現,進而保留信息上的差異性,而不是因為它們的不一致而消除它們。例如,NoSQL資料庫可讓記錄在它們所捕捉的領域上存在對象差異。萬維網創造者蒂姆·伯納斯-李創造了「關聯數據」一詞來說明完全忽視記錄概念,使得話題的每一個細微之處都能夠以可重複使用的形式表達出來的信息。


這使得網路時代的信息概念與計算機時代很不一樣。現在我們更多地將信息看作是溪流,而不是存儲在容器里的資源。


我們的機器容量之大,連接性之強,讓我們認識到我們的世界是多麼地複雜,多麼地不確定。

例如,Kevin Heng在《美國科學家》發表文章指出了多量程問題:「系統中的小小的擾動」在無數的尺寸和時間標度中會呈現巨大的影響。


模型總是可以簡約的:它們將調查研究局限於我們能夠觀察和跟蹤的那些因素。數千年來,我們假定我們的簡單模型會反映宇宙的簡單性。如今,我們的機器正讓我們看到,即便設定的規則很簡約,很漂亮,很理性,它們所管理的範疇都如此精細,如此錯綜複雜,如此相互聯繫,牽一髮而動全身,以至於我們的大腦和我們的知識都無法理解。我們要藉助由人類和計算機組成的網路才認識到世界原來完全受不確定性所支配——這個世界完完全全都是混沌的。


放棄知識


早在西方文化開始發現知識時,柏拉圖告訴我們,信念並不足以成為真相,因為如果信念就是真相,那就意味著你對普里克內斯賽馬比賽的勝出者的幸運猜測要被算作知識。這解釋了為什麼在西方國家知識要由可確證的真實信念構成。


我們新形成的對不可理解的模型的依賴,將其視作我們的信念的印證來源,將我們置於奇怪的位置。如果說知識包括對我們的信念的確證,那麼知識不能歸類為心智內容,因為如今的確證由存在於機器的、人類心智無法理解的模型構成。


對此,我們的反應可能是不再去依靠無法為我們所理解的計算機模型,從而讓知識繼續以其原來的方式發展。這意味著我們要放棄某些類型的知識。我們已經放棄了一些知識類型:法院嚴禁某種證據,因為準許它的話,就會給警方帶來非法收集它的動機。同樣地,很多的研究機構都需要擬議項目通過機構審查委員會的審批,從而預先防止那些或許有價值但可能會傷害受試者利益的項目。


我們已經開始定義機器確證的社會成本太高的領域。例如,信用評分公司FICO評分與分析高級副總裁安德魯·詹寧斯(Andrew Jennings)表示,「由於法規要求建立信用評分系統的人處理好預計有用的東西和法律允許的東西之間的折衷,美國和其它地區在信用評分方面有很多存在已久的規章制度。」例如,機器學習演算法可能會發現,浸禮會教徒一般都是風險小的信用對象,而聖公會教徒則不然。儘管這個例子屬實,但那些只是可能不會被用於計算信用評分,因為美國法律不允許基於宗教信仰或者其它的受保護階級的歧視行為。信用評分公司也不得使用表明這些屬性的數據,比如訂閱《浸禮會周刊》(Baptist Week)。


信用評分公司能夠從來計算信用風險的模型還受到其它的一些限制。如果貸方拒絕信貸申請,貸方必須要提供申請者信用評分不高的原因。為了符合這一要求,FICO儘可能地為消費者提供可行的解釋說明。例如,詹寧斯解釋道,信貸申請者可能會被告知,「你的信用評分低,是因為過去一年裡你累計八次信用卡過期還款。」


不過,要是FICO手動創建的模型對於信用風險的預測能力沒有神經網路那麼強,會怎麼樣呢?事實上,詹寧斯稱,在使用同樣的輸入變數的情況下,他們最近對比了通過機器學習技術得出的信用評分和手動創建模型得出的結果,他們發現二者之間差異並不大。但機器學習的好處在於,有些時候機器不可理解的模型的預測能力會比人類可理解的手動創建模型強大得多。在那些情況中,我們的知識——如果我們使用它的話——將依賴於我們無法理解的確證。


然而,儘管機器學習模型非常強大,但我們也要學會提出質疑。出現例證失效的似乎是那些機器確證沒有充分逃脫人類根源的模型。

例如,被訓練評估申請保釋的個人構成的風險的系統會放行那些白人慣犯,但不會放行那些犯罪記錄較少的非裔美國人。該系統學習到了人類的偏見,人類的決策屬於數據的一部分。中央情報局(CIA)用來辨認無人機襲擊目標的系統一開始指向了半島電視台的一位知名記者,因為該系統接受過有關知名恐怖分子的小數據集的訓練。這種系統顯然還是需要人工監督,尤其是涉及無人機襲擊,而非給黃瓜分類的時候。


數據分析公司Fast Forward Labs研究工程師邁克·威廉姆斯(Mike Williams)在接受電話採訪時表示,我們需要特別警惕往往影響重要數據集的歸類和重要數據收集方式的偏見。例如,最近有論文討論一個使用神經網路來預測肺炎患者的死亡概率的項目,該項目是為了鑒定可作為門診病人來治療的低風險患者。神經網路預測的結果一般都比那些對數據實施已知規則的手動創建模型準確。然而,神經網路明確指出,喘息性肺炎患者死亡風險較低,因此應當作為門診病人來治療。這與護理人員所知道的以及常識相矛盾。最後研究人員發現,該發現是因一個事實所致:喘息性肺炎患者會立刻被送到重症監護室,因此存活率很高。但很顯然這並不意味著他們應當被送回家,相反他們應該住院治療。要識別這種錯誤,需要人工的監督。


新書《數學殺傷性武器》作者凱西·奧內爾(Cathy O』Neill)指出了決定我們使用哪些數據集來訓練計算機的價值觀的內隱偏見。她談到了一個有人給一個崗位找最合適人選的例子,其列出的其中一個條件是:「能夠供職多年時間,爭取晉陞機會」。如果使用機器學習演算法來完成這項任務的話,你最終很可能會聘請到男性,因為女性在同一個工作崗位的停留時間通常相對較短。她說,使用機器智能來鑒定公立學校系統中的差教師也是同樣的道理。怎樣才算是壞教師呢?看其班級學生在標準化考試中的平均分?看最終有多少學生畢業?看有多少學生上大學?看學生畢業後的年收入水平?看學生畢業後過得是否幸福美滿?人類或許能夠作出定義,但機器學習演算法很可能會重新建立起我們選來給配備的數據所隱含的偏見。


因此,我們可能會兩手一起抓。一方面,我們將延續我們禁止一些確證類型來避免不良的社會影響的傳統。與此同時,我們可能將會繼續越來越依靠我們無法理解的機器確證。


問題不僅僅在於,我們無法理解它們,就像外行無法理解弦理論一樣。還在於,基於計算機的確證本質上完全不同於人類的確證。它是一種異類。


但「異類」並不意味著「錯誤」。說到理解萬千世界,機器可能比我們人類任何時候都要接近於真相。


異類確證


在某處地方,有隻蠕蟲比它的同類更有好奇心。它會慢慢穿過泥土,品嘗它經過的每一片土地的味道,總是去尋找下一個新的泥土樣本,因為它認為蠕蟲的最高使命是認識它的世界,而品嘗就是它獲取知識的方式。憑藉豐富的經歷和出眾的分類和表達能力,這隻蠕蟲在同類當中備受尊崇,被視作能夠傳授有關地球嘗起來是什麼味道的智者。


但味道並不是地球的屬性,也不是它的組成部分。我們尊貴的蠕蟲所品嘗到的東西是它的味覺和土壤化學成分相遇的結果。蠕蟲的器官只能夠讓它通過與地球上的東西的部分屬性相關的品質來認識世界,但實際上世界並不是那樣子。正如認知科學家唐納德·霍夫曼(Donald Hoffman)所說的,現實性的認知不大可能讓生物變得更適合進化。


我們認為,人類知識不同於智慧蠕蟲的知識。我們能夠辨別規律秩序,這能夠給感官帶來的混亂帶來一致性和可預測性。我們並非蠕蟲。

的確如此。但我們給我們全球的計算機網路填充的細節越多,世界就越不像是運轉狀態良好的渾天儀。我們的機器如今讓我們明白到,即便宇宙運行所基於的原理沒有比圍棋複雜很多,萬事萬物之間的相互影響會一下子讓它變得比亞里士多德、牛頓、愛因斯坦甚至一些混沌理論家所認為的更具不確定性。它看上去井然有序只是因為我們的工具儀器顯而易見,只是因為我們的知識概念在我們找到秩序之前通過簡化事態來強行施加秩序,只是因為我們的需要滿足於近似值。


如果你只是想要將8號球打入角落球袋,那並無問題。但如果你想要知道那個球將會走出的真實路徑,那你就得考慮它在經過毛氈的每一個纖維時在分子層面所產生的摩擦力,考慮月球的拉力和地球晃動造成的時間差,考慮台上燈具和側邊電燈發出的光子所產生的不規則影響,考慮你的對手屏住呼吸時氣流的變化。更不用說量子的不確定性了。這些東西沒有一樣會影響到你是否打中那個球,但它就是正真實發生的事情。即便宇宙由簡單到能為我們所理解的定律所主宰,宇宙中最簡單的事情也是不可理解的,除非將它們簡單化。


我們的機器正讓我們明白到這一點,因為它們不需要我們將信息縮減到可融入一堆打孔卡。由於它擁有這種新能力,我們如今趨向於給它們加入一切的信息,然後才發問。


當然,我們所獲取的知識仍將只是宇宙可帶來的冰山一角,而且很容易受我們的偏見和假定影響。即便如此,這種新量級下的數據正讓數千年來的一個真理變得顯而易見:知識高於我們。


1990年代中期,萬維網開始促使我們跳出我們通過縮減我們需要認識的東西來認識世界的傳統方式。知識迅速逃脫紙張的牢獄,寄居於網路。舉例來說,現在如果你想要了解《李爾王》(King Lear),你會上網去查找,在網路上,我們對於該戲劇的知識存在於無數的文學學者、歷史學家、語言學家、數字人文主義者、演員、導演和觀眾創建的網站鏈接。這些內容創建者包括專業人士、業餘人士、愚笨的人和學者。我們有關《李爾王》的知識邊界是每個人的興趣和現有項目所決定的。那些容易消失的邊界內的網路化知識非常龐大,相互關聯,往往是不一致的。這就是知識在規模化的時候的樣子。


機器學習的興起進一步凸顯了人類的理解力相對於其給自己設定的任務的不足。並不是說,知道希格斯玻色子需要一個由硬體、軟體、科學家、工程師和數學家組成的網路。邁克爾·尼爾森(Michael Nielsen)在其2011年出版的優秀著作《重塑發現:哈佛伯克曼·克萊因中心網路化科學的新時代》有指出這一點。畢竟,知識的傳統確證允許我們依靠值得信賴的資源。這部分因為我們知道,理論上我們可以採訪所涉及的每一個人,可以判定他們是否是希格斯玻色子確證一事的重要組成部分。


然而,當神經網路產生結果所基於的過程不同於人類確證知識的方式時,我們就沒什麼辦法了。我們能夠通過指出AlphaGo贏得圍棋比賽,以及無人駕駛汽車的移動網路可產生較少的事故,來證明機器所產生的結果很有可能是知識。但我們不一定能夠理解AlphaGo為什麼會這麼下棋,而不是那麼下棋,也不一定能夠理解為什麼明明應該往左轉,無人駕駛汽車卻往右轉。這涉及太多的信息輸入,機器的決策基於各種相關性的綜合考量,而這些即便是最聰明的人腦也無法理解。


在對知識乃至世界如何運作的日常想法上,我們正開始經受一種範式轉移。在我們原來認為簡單的原理基於相對可預測的數據的情況中,我們現在正變得清楚地認識到,看上去再簡單的情況,實際上也極其複雜。原來我們認為天體的運動具有規律性,生命中變幻莫測的事件都是異常現象——只是「意外事故」,亞里士多德提出的區分它們與事情的「基本」屬性的概念——而如今,一切發生的事情都具有不確定性,成了我們的思維範例。


這正使得我們能夠確定我們大腦以外的知識。我們只能知道我們所知道的東西,因為我們跟我們自己設計的異類工具有著緊密的聯合關係。我們的腦力是不夠的。


來自100年前的實用主義哲學幫助我們通過限制我們的野心來在在智力上準備好應對這種變化:知識更多的是在世界中操作的工具,而不是世界的反映。德國哲學家馬丁·海德格爾(Martin Heidegger)的唯象理論提供了一種不同的糾正,它指出,知識是世界的心智表徵的看法是虛假的。

安迪·克拉克(Andy Clark)和大衛·查爾默斯(David Chalmers)至少部分基於海德格爾思想的延展心智理論,則對知識提供了一種更加直接的重塑。克拉克在其1996年出版的著作中指出,獲取知識這件事情,我們一直以來都是利用工具來做的。四千年前,不懂數學的牧羊人需要一些小圓石來確保他帶回來的綿羊數量與出發時一樣,現在的物理學家很可能還需要白板來做認知工作。建築師需要大塊的紙張、直尺甚至3D模型來思考建築的構造。沃森和克里克需要自制的裝置來搞懂DNA的結構。現在,這些領域的工作人員都已經轉用電腦了,牧羊人甚至可能配備最新的iSheep應用了。然而,情況還是一樣的:我們利用工具來理解這個世界。將知識視作一種心智內容——一種經過證明的真實看法——會模糊那個簡單的現象真相。


只要我們的計算機模型能夠具現化我們自己的看法,我們就能維持世界是像我們的知識(和我們的模型)那樣運轉的幻覺。一旦我們的計算機開始自行創建模型,並且那些模型超出我們的理解範疇,我們就失去了那種令人心安的假設。我們的機器讓我們的知識論的局限性變得顯而易見,通過帶來修正,它們揭示了一個關於宇宙的真理。


這個世界並非碰巧被上帝設計得或者被偶然設計得可為人類大腦所認識。世界的本性更接近於我們的計算機和感測器網路體現它的方式,而非人類心智對它的感知。隨著機器能夠獨立運作,我們正失去那種世界碰巧簡單到能為我們人類所理解的幻覺。


利用我們自己創造的機器網路,我們才認識到自己才是異類。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 cnbeta 的精彩文章:

特斯拉應用更新:讓Powerwall用戶注意電力情況
技嘉發布酷睿i3版Brix物聯網迷你PC:核顯支持4K@60Hz
戴爾首款HDR10 4K顯示器UP2718Q發布 覆蓋多種色域
東芝正聯合廠商開發機械硬碟HAMR新技術

TAG:cnbeta |

您可能感興趣

用心理知識治療失戀的具體方法是什麼?
做俯卧撐也是要講究呼吸方法的 這些知識你都了解嗎
想讓歐盟改革知識產權法?請努力往它們的辦公大樓「扔傳單」
法律從業者該如何運用手機中的法律類應用軟體進行知識管理?
先秦變革家商鞅:有法律知識具哲理思想
顛覆你想法的一些冷知識
中醫養生知識:檢查腎功能怎麼查呢,這些方法你都知道嗎
這些書法作品的落款知識,你想知道嗎?
動漫中的那些燒腦物理知識,你都能看懂嗎?
知識點:一看便會 印表機常見進紙故障處理方法
不要讓老司機掌握的汽車冷知識誤導你,真相到底是什麼呢?
影院真有監控?熊孩子沒人管嗎?你不知道的電影院冷知識
腎病知識科普|尿常規檢查結果,你也可以自己看懂!
清凈法師:尋求讓你解脫的善知識
魔術里都運用到哪些心理學知識?
育兒知識的「土方法你懂哪些!
《法律知識》小心人財兩空!法律從來都沒有「假離婚」
哪些知識會讓你變蠢?
人的方法和知識,無法使你保持健康