生命3.0-在億年的尺度下審視生命的演進
去年曾讀過的《Life 3.0》,最近出了中文版,在豆瓣上獲得了8.6的高分,這並不稀奇。等到我拿到中信出版社寄的樣書後,我發現整本書翻譯的質量很高,全書語言流暢,而且對於極權主義等敏感話題也沒有一絲一毫的刪減。更難得的是,由於譯者是原書作者的好友,因此在翻譯的過程中,加入了一些新的內容,包括18年AI領域的新鮮事,因此可以看成原書的升級版。
不過書還是要批判性的去讀,因此下面是針都是這本書的一些不足。作者在書中將生命從分為動植物,人類,人工智慧這三個階段,判定的標準是能不能自主的決定自己的硬體和軟體。按照這個標準,目前的AI無法自主的決定自己能夠在什麼樣的機器上運行,只能改變模型的參數,這隻能算自主的修改其軟體,而且只是軟體中頂層的一小部分。真正要做到生命3.0,需要的是腦機介面和人機融合,但書中卻沒有提到這個技術,這不應該簡單的歸結於作者知識上的欠缺,而應該考慮到是這本書的宏大語境使得作者並沒有局限在具體的技術上,而是通篇從理論的可能性上在思考問題。
這本書的開篇是一個短篇的科幻故事,講的是強人工智慧是如何一統天下的。當我拿到中文版,第二次閱讀這個故事時,發現這個故事中的每一步都是讀起來順理成章的。但正如狗沒有叫才是線索,這反而是有問題的。過去的農人說起皇帝,會說他們拿著金鋤頭在犁地,如今我們看待強AI,也會犯類似的錯誤。技術的進步會帶來文化,經濟,政治等多方面的改變,但作者卻按照當下的邏輯,去構思強AI如何成為統治全球者。因此引言僅僅應對被看成是一個故事,用來引出這本書真正想講的話題,如果強AI出現了,那該怎麼辦。而這正是這本書最多被談起的部分,作者列出了強AI可能對各行業產生的衝擊,窮舉了強AI出現後的歷史走向,如同科幻小說的開放結局。這些結局從好到壞,可以分成以下12種:
1 AI做主導者的自由主義烏托邦
2 AI成為人類的善意獨裁者
3 AI和人類平等共存的烏托邦
4 AI作為人類幸福的守護者和指路燈
5 AI主導著人類,也保護人類的安全
6 AI奴隸著人類
7 AI征服了人類
8 人類滅亡後,AI繼承了人類的文化和記憶
9 AI把人類當成寵物養在動物園裡
10 AI成為獨裁者的工具
11 AI消滅了人類對地球的影響,讓人類回歸田園時代
12 AI 和人類一起走向共同滅亡
但不同於羨慕皇帝用金鋤頭犁地的農人,當下的物理學告訴了我們智能的極限,不管是怎樣的智能行為,都是要符合物理定律的。既然計算是由一個記憶狀態向另一個記憶狀態轉變的過程,那計算就涉及到信息的存儲和擦除,而這是需要消耗能量的,而且對一比特的信息,物理學能給出理論上拆除信息所需的最小能量值,正是基於這一點,物理學家能夠在給定的能量限制下,給出智能機器所能達到的極限能力。而這一極限能力大的驚人,書中寫道,「從數量級上來說,今天最好的超級計算機與1千克「終極計算機」之間的距離,比它和汽車轉向燈之間的距離還要遠,轉向燈只能存儲一個比特的信息,每秒只能在開和關之間轉換一次。」
在這本書的第六章里,作者在當下的理論前提下,做了一些看似是科幻小說,但實際是硬科學的推導。這一章很容易被誤讀,從而讓讀者忽略了這一章真正的精華。我覺得從這一章中,你可以看出,對於智能生物來說,越大越慢的詛咒永遠都在,生命的結構不能太小,太小則布朗運動的影響會帶來持久的耗散,而太大則會受制於信息傳遞的速率。打蚊子時你就會發現自己的反應要比蚊子慢,但蚊子卻從來沒有叮到你的眼睛,如果眼皮的運動還要像手那樣經過大腦,那就不一定的。
書中寫道:對一個智能信息處理系統來說,身體變大是一件喜憂參半的事,會帶來此消彼長的有趣均衡。一方面,變大意味著它可以擁有更多粒子,也就能帶來更複雜的思想。而另一方面,如果它想要真正的全局思維,這反而會降低速度,因為信息需要花更長的時間才能傳遍它身體的各個部分。這像級了大企業大帝國的反應遲緩,為此要做的是等級化的管理和放權,比如人類的本能就來的比有意識的反應要快,而這就是將身體基本機能的控制權下放到小腦的結果。這個和尺度相關的普遍規律告訴我們,即使是從一本完全都在談論形而上的問題的書中,也能夠學到做事的智慧。
費米悖論,宇宙間的不同智能該如何合作,這也是這本書討論的問題,因此這本書不應該只被看成是和AI有關的一本書,而應當看成是升級版的《生命是什麼》,同樣的是從第一性原理來解釋生命現象,《生命3.0》談論的是生命的目的,而不是生命的機制。而這就體現談論目標和意識的第七和第八章。而這裡最值得細說的是第七章,古代人們害怕神靈的懲罰,但這不同於當下人們害怕的強AI崛起,前者我們決定自己可以知道神靈的目的,但面對強AI,人類真正害怕的是強AI誤解或者產生一些人類想不明白的目標。如何讓一個給你聰明多的東西賦予目標,這需要理解目標的根源。
而這就涉及到不在同學科的角度下,目標是如何生成的,從物理學的熵增和耗散結構,到生物學在有限理性的前提下將目標從耗散改為複製,再到心理學用感覺完成了對基因規定的規則的反叛。用書中的話說,就是目標導向行為的三個階段:
? 第一階段,所有物質似乎都在努力實現耗散的目標,即熵增;
? 第二階段,其中一些物質擁有了生命,轉而聚焦於子目標-複製自身;
? 第三階段,生物重新排列的物質越來越多,以實現自己的獨特的目標。
隨著人類掌握的東西的增加,意味著即使不發生智能爆炸,很快,地球上大部分展現出目標導向性質的物質都會是設計出來的,而不是進化出來的。而所有設計出的東西的目標不僅變得越來越多樣化,而且變得越來越複雜。對於強AI來說,人們害怕的到不是其是惡意的,而是害怕其由於過於高效的完成它的目標後造成的意外後果。很多的傳奇故事中精靈幫助人們實現三個願望時,第三個願望都是「請收回前兩個願望,因為那不是我真正想要的東西。」但對於強AI來說,試錯的成本則顯得太高。
接著作者列出了讓AI明白人們正在想要的是什麼,目前可行的技術方案,第一種是讓機器從行為中推斷目標,這個在《The book of Why》中有過介紹,第二種是逆向增強學習」(Inverse Reinforcement Learning),即通過觀察許多人在許多場景中的行為,包括真實場景、電影和書籍,最終構建起關於人類偏好的精確模型。但對於AI來說,這個窗口卻不確定會有多長,在任何一個領域,要在AI越過了愚鈍得無法理解你之後,又要在聰明的你無法理解之前,教會他目標是什麼,還要如保證AI在未來的新壞境下能夠保持這個目標。
書中寫道:一個4歲小姑娘憧憬著,當她長大了,變得更聰明了,她就要給自己建造一間巨大的薑餅屋,然後在裡面坐上一整天,除了吃糖果和冰激淋以外什麼都不幹。和她一樣,地球上的生命也可能會長大成熟,而不再執著於童年時期的興趣。就好像一隻製造了人類水平的通用人工智慧的老鼠想要建一座乳酪城市,聽起來十分荒謬。這說明了強AI在未來一定要改變其目標,但另一方面,即使是類似的幼兒園倫理,也好過完全沒有限制的AI,每個設計機器的工程師都應該思考,機器在使用過程中,有哪些事情是可以做但不應該做的,然後考慮如何避免用戶不管是出於惡意還是愚蠢,實施這樣的行為。
在關於目標的這一章的結尾,作者指出了當前的研究表明AI既不能回答如何讓AI和人類有共同目標的能力,而倫理學又無法對生命體的終極目標取得共識。但作者還是給出了一些在大的尺度上值得優化的數量,在過去,對單一指標的過分關注曾經讓人類犯下了很多的錯誤,因此對未來強AI要在宇宙尺度優化的值,就需要給予最大的討論,而本文也將在這裡結尾,最後是一個投票,看看讀者一下那個目標應該是未來的強AI應當最追求的。
總結一下,在這本書的後記中,作者寫道自從他14歲知道核軍備競賽以來,就一直擔心我們的技術力量比我們控制它的智慧增長得更快。而類似的擔憂,我也曾在最近的幾本讀書筆記中有所體現,只是我關注的更多是現實中露出苗頭的問題,是數據驅動而不是理論驅動的思考方式。前者的好處是能夠給出至少部分的解決方案,而理論驅動則是從第一性原理出發,不會遺漏其他的可能性。最後列出幾篇相關的讀書筆記,以供參考。
TAG:混沌巡洋艦 |