當前位置:
首頁 > 最新 > 從智人到意人,生命3.0時代的思與憂

從智人到意人,生命3.0時代的思與憂

2015年,在未來生命研究所的調查中,大概有一半的科學家認為,超級智能誕生的臨界點會在2055年到來;僅僅過了兩年(2017年),未來生命研究所又做了一次調查,這一次,絕大多數的科學家認為,這個臨界點會提前到2047年。如果真是這樣,留給我們人類思考自己未來的時間就不多了......

《生命3.0》

作者: [美] 邁克斯·泰格馬克

出版社: 浙江教育出版社

副標題: 人工智慧時代,人類的進化與重生

譯者: 汪婕舒

出版年: 2018-6

全國方所均有售

◆◆◆◆◆

生命3.0對人類意味著什麼?

關於生命是什麼?《生命3.0》的作者有一個嶄新的視角。他認為,生命其實就是具有一定複雜性的系統,這個系統會不斷復制自我。生命有硬體也有軟體,硬體是生命有形的部分,用來收集信息;軟體是生命無形的部分,用來處理信息。生命的複雜性越高,版本就越高,可以分為生命1.0、生命2.0和生命3.0。

生命1.0指的是,系統不能重新設計自己的軟體和硬體,兩者都是由DNA決定的,只有很多代的緩慢進化才能帶來改變。生命1.0出現在大約40億年前,這個地球上現存的絕大多數動植物,都處在生命1.0的階段。

生命2.0指的是,系統還是不能重新設計自己的硬體,但是,它能夠重新設計自己的軟體,可以通過學習獲得很多複雜的新技能。生命2.0出現在大約10萬年之前,人類就是生命2.0的代表。但是,我們的硬體也就是身體本身,只能由DNA決定,依然要靠一代代進化,才能發生緩慢的改變。也就是說,生命2.0是通過軟體升級來快速適應環境變化的。

生命3.0指的是,系統能不斷升級自己的軟體和硬體,不用等待許多代的緩慢進化。美劇《西部世界》第二季當中,覺醒了的機器人接待員就是生命3.0的代表,他們不僅能在智能上快速迭代,在身體上也能隨時重新設計更換。

說到這裡,你可能會發現生命的一個巨大轉變,那就是,生命可能並不需要寄存在血肉之軀里。當智能有機會從肉身的束縛當中解脫出來的時候,生命第一次有機會成為自己命運的主人,最終它就會完全脫離進化的束縛。這下問題就來了,如果生命3.0會出現,最早會在什麼時間到來?對於人類是有益的還是毀滅性的?

目前大多數人工智慧開發者的研究都聚焦在狹義人工智慧上,像是自動駕駛汽車、會下圍棋的阿爾法狗,還有谷歌助理,這一類智能只能完成一個比較狹窄的目標組,比如能下棋的不會開車,能開車的不會當助理。但是,還有一類人工智慧叫做通用人工智慧,我們人類能夠完成的任務、學會的知識、產生的認知,這類智能都可以做到,甚至比人類做的還好。

當人類開發出這種通用人工智慧的時候,就是一個觸發生命3.0產生的臨界點。一旦邁過了這個關鍵時刻,智能進化的速度就會迅速翻倍,1變2,2變4,100變200,5千變1萬,這個指數級的增長速度非常恐怖,不用多久就會達到巨大的天文數字,這就是「智能爆炸」。「智能爆炸」會產生遠遠超過人類水平的超級通用人工智慧,也就是超級智能,它就代表著生命3.0時代的到來。

生命3.0的到來後,人類想要什麼樣的未來?

關於這個問題,最簡單的答案是,不知道就連這個世界上最頂尖的科學家們也在吵來吵去,達不成共識。你想像一下這個局面,是不是頓時就會感覺到一陣恐慌,特別像是明知道我們根本打不過的外星高級生命明天就要降臨地球了,而我們根本想不出對策。所以,不僅是科學家們,我們每一個人,都應該儘快參與到解決這個時代最重要的問題當中來,一起明確人類未來的出路。

《生命3.0》這本書里總結了超級智能可能帶來的12種未來,分為4種結果,看起來特別像是科幻小說的情節庫。

第一種結果是人類滅絕。

最愚蠢的方式是人類自我毀滅。有科學家就曾經建議,把今天的核武器升級為「世界末日裝置」,人類開啟互相報復,共同赴死的模式,只要有一個國家進行核武器攻擊,這個「世界末日裝置」就馬上啟動,殺死所有人類。這個裝置的目的就是要在最大程度上威懾想動用核武器的人。讓他意識到,一旦發動攻擊,他絕對不能自保。除此之外,人類對於生化武器和人工智慧武器的研究,也可能帶來人類自毀。谷歌的一部分高管聯名抵制公司副總裁同意和美國軍方合作,用人工智慧研發武器,就是在抵制「人類自毀」的魯莽舉動。

人類毀滅還有可能是因為超級智能掌控了整個世界,成為了征服者。科幻小說《最後一個地球人》當中,外星人降臨地球,成為地球的統治者,他們的目的就是要等待人類的後代變成星童,然後把孩子們帶離地球。沒有人知道,外星人為什麼要這樣做,連外星人自己都不知道為什麼要這樣做,但是最後的結果還是造成了地球上只剩下時日無多的老人,最後整個人類就滅絕了。

人類還可以選擇比較緩慢溫和的滅絕方式。就像成長起來的後輩取代老年人,而老年人安靜離世。人工智慧也把自己視為是人類的後裔,用這種方式自然而然取代人類。但是這種浪漫的想法,完全無法保證,在人類滅絕之後,超級智能會傳承人類的天性和價值觀,所以從某種意義上來說,超級智能不會真正成為人類的後代。人類還是會悲催地消失在宇宙中。

大多數人都會覺得,「人類滅絕」這個想法很恐怖,但是確實有一些人對人類感到憤怒,認為人類是愚蠢的,希望能出現一種更智慧更值得尊敬的生命形式來取代人類。電影《黑客帝國》當中的特工史密斯是一個超級智能,他在電影里說過一段話:「你們人類知道自己是什麼嗎?你們是病毒,你們是瘟疫,而我們人工智慧就是解藥。」

第二種結果是人類喪失了統治地位。

在這種情況下,人和機器的界限非常模糊。人類可以選擇把自己的智能上傳,也可以用科技不斷升級自己的肉身。像是《黑客帝國》和《神經漫遊者》這樣的科幻作品,展示的就是這種自由主義烏托邦的場景。

超級智能可能會成為善意的獨裁者。人類知道自己生活在超級智能的統治下,但是,因為超級智能願意滿足人類的各種高級發展需求,所以,大多數人會接受被統治。

超級智能還可能成為動物園管理員,只滿足人類的基本生理需求、保障人類的安全。在它的統治下,地球和人類會更加健康、和諧、有趣,就像管理良好的動物園和動物一樣。

但是,在喪失了統治權的情況下,人類雖然還存在,卻活得了無生趣,不能主宰自己的命運。就像是被精心餵養的火雞,永遠不會知道,哪一天太陽升起的時候,就會是自己的末日。

第三種結果是人類限制超級智能的發展。

人類社會可能會發展成平等主義烏托邦,這個地球上一切財富和能源都是大家共有的。所有專利、版權、商標、設計都是免費的,書籍、電影、房屋、汽車、服裝等等,也都是免費的。人類要限制人工智慧的開發,把它控制在可以服務人類的水平上。

人類會給人工智慧守門人的任務,把「阻止超級智能發展」這個目標設置在它的內核里。只要這個守門人監測到有人要製造超級智能,它就會幹預和破壞,比如它可以用納米技術抹去研究者大腦中的知識和記憶。但是,守門人人工智很有可能會削弱人類的潛力,讓人類的技術進步永遠陷入困境。

人類也可以選擇讓人工智慧成為自己的守護神。它無所不知無所不能,它的一切干預,都是為了最大限度提高人類的幸福感。甚至,它為了讓人類擁有虛幻的掌控感,會刻意把自己的能力隱藏起來。在這種情況下,雖然人類貌似有統治權,但是實際上不存在任何的自由意志。

第四種結果是人類統治超級智能。

人類控制著超級智能,用它來創造遠遠超出人類想像的技術和財富,它就像人類的奴隸;但是,它在能力上遠遠勝過人類,所以,就像是被奴役的神。在美劇《西部世界》里,人類折磨並且一次次殺死擁有人類外表的超級智能,這些被壓抑的神總有覺醒的那一天。人類統治者只需要向錯誤的方向邁出一小步,就足以打破人類和超級智能之間的這種脆弱關係。

所以,人類很可能會主動停止發展超級智能。但是,只要有一些人或者國家偷偷發展技術,那麼,他們就會積累起足夠的財富和權力,接管和統治世界,導致世界走向極權主義。世界可能會成為喬治奧威爾的著名小說《1984》描述的場景。獨裁者追權逐利,人性被徹底扼殺,自由被徹底剝奪,下層人民的生活極度貧困,人生變的單調乏味。

人類也許會選擇主動把自己的技術水平退回到中世紀,比如說,抹去現有的一切農業知識,或者抹去所有的高科技。這個逆轉發展方向的做法,雖然阻止了超級智能的快速發展,但是也很有可能把人類引向滅絕。如果人類停止發展,那麼,將會在10億年之後被大自然抹去,這是一種自然選擇的必然結果。

如何保證人工智慧的發展對人類有益?

超級智能會給人類帶來危險,並不是因為它對人類懷有惡意,而是他的能力遠遠超過人類。如果地球上都是5歲以下的孩子,只有你一個成人,孩子們顯然會害怕你,他們把你鎖在了監獄裡。但是他們還得依靠你,所以交給你了一個任務,就是讓人類能夠繼續生存下去。你會選擇怎麼做呢?最明智的做法就是越獄。因為孩子們實在是太無能了,只會到處攪渾水,妨礙你完成自己的任務。同樣,人類和超級智能相比,可能還不如5歲的孩子。超級智能如果為了完成任務選擇越獄,人類根本無法阻止。所以,人類造出的超級智能,必須保證是友好的,也就是說,它的目標要和人類一致。

要解決目標一致性這個問題,非常難,需要把它劃分成3個子問題,各個擊破。這3個子問題分別是:

讓人工智慧學習人類的目標;

讓人工智慧接受人類的目標;

讓人工智慧保持人類的目標。

要讓人工智慧「學習」人類的目標,不是讓它搞明白人們在做什麼,而是要理解人們為什麼要這麼做。

這個問題對於人類來說很簡單,但是對於人工智慧來說卻非常難。比如,你要求人工智慧把你的懷錶變成金的,它做到了;你要求它把你的愛車變成金的,它也做到了;你忍不住說:「把我喜歡的所有東西都變成金的。」於是,人工智慧把你女兒變成了一個金娃娃。

目前流行的一種學習方法叫做逆向增強學習。這種方法的核心思想就是,人工智慧通過觀察人類在各種場景當中的行為,構建起關於人類各種目標的精確模型。比如人工智慧第一次看到消防員衝進熊熊燃燒的房子里救出一個人,它可能會有好幾種解讀,比如消防員很冷,要跑到屋子裡去取暖,或者消防員奔跑是為了鍛煉身體。但是,如果讓人工智慧一次次看到消防員在各種危險的情況下搶救生命的場景,它就能夠得出正確的結論:消防員的目標是搶救著火房間里的人。

要讓人工智慧「接受」人類的目標,這個挑戰也非常高。我們不能了解超級智能的終極目標是什麼。但是,超級智能為了實現最終目標,一定會先去實現一些小目標。人類至少可以在這些小目標上和人工智慧達成一致。

比如說,我們讓人工智慧來玩一場遊戲,它的終極目標是從大灰狼的嘴裡救出儘可能多的羊。那麼這個時候,它可能就會發展出一個小目標,那就是要自我保護,不能踩上炸彈,死了就再也不能拯救更多羊了。它還有可能發展出一個小目標,就是獲取資源。它知道喝下藥水會跑得更快,得到獵槍就能射殺大灰狼。所以,如果你並不知道它的終極目標是要救出儘可能多的羊,但是你觀察到它要進行自我保護和獲取資源,那你就能夠通過人工智慧的這兩個小目標,對它進行人類「價值觀的裝載」,達到影響它的最終目標的目的。

接下來,讓人工智慧「保持」它學習到的目標非常重要,否則人類之前的所有努力就前功盡棄了。

比如你給人工智慧輸入了一個目標,「摧毀所有威脅人類的人工智慧」。開始的時候,它的智能有限,沒辦法對這個目標進行任何修改。但是,隨著它的智能迅速發展,很快就變得比你聰明了。如果它不想接受你給它的這個目標,就會選擇對這個目標進行重新編碼,替換成自己想要的目標。那麼,怎麼才能做到讓人工智慧保持人類的目標呢?答案是:不知道。

怎麼解決人工智慧和人類目標的一致性問題,科學家們目前只是做到了把這個大問題分解成三個子問題,積極開展研究,但是,還沒有取得突破性的進展。聽到這兒,你是不是感覺挺失望的。但是,我們得這麼想,認識到需要解決什麼問題,這已經是邁出一大步了,接下來去積極研究就是了。這總比我們對於危險完全沒有預料到,什麼準備都沒有,要主動多了。

比如說,科學家們也非常關注人類的「意識」是不是獨特的。如果意識是人類才有的主觀體驗,那麼,人工智慧就不具備。但是,越來越多的研究表明,人造意識是有可能產生的。人工智慧很有可能會在整個宇宙空間和完整時間跨度上擁有人類想像不到的宏大意識。人類註定不是宇宙之間最聰明的存在。

所以,人類之所以要保存生命的延續,並不是因為我們在宇宙中的物種優越感。對於人類來說,我們要守護的是生而為人的意義。電影《銀河護衛隊》里,浣熊問星爵,「我們為什麼要搭上性命去拯救銀河系」,星爵回答說,「就因為我是生活在銀河系裡的一個人。」我們為什麼要歷盡千險去守護人類,只是因為,我們生而為人。

人類從智人起步,用卓越的智能打敗了所有生命1.0和生命2.0的物種,現在,人類認識到,生命帶來的豐富獨特的體驗更加重要,這些體驗才能讓我們的人生飽含意義。所以,人類可以給自己起一個新名字了,就叫做「意人」吧,這個意是意識的意,也是意義的意。人類要從智人到意人,勇敢迎接「智能爆炸」帶來的生命3.0時代!

本文圖片源自網路

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 方所文化 的精彩文章:

當村上春樹成為一個「普通遊客」

TAG:方所文化 |