周濂:用政治「鎖死」科技?
編者按 阿爾法狗擊敗李世石,在全世界引起震動和熱議。而關於現代科技發展對人類基本生存狀況究竟有什麼樣的影響,福山早在2002年就寫了《我們的後人類未來》。以福山保守主義者的眼光看來,人性的保留是一個有深遠意義的概念,界定了我們最基本的價值觀。因此面對現代科技可能帶來的政治問題和倫理問題,應該用政治的方式即由政治運作來決定技術的發展和運用來解決。用政治「鎖死」科技,乃化解人類生存危機的正當性選擇?
用政治「鎖死」科技?
文 | 周 濂
(《讀書》2016年7期新刊)
為什麼要讀《我們的後人類未來》?這是一個問題。
弗朗西斯·福山《我們的後人類未來》
初看起來,這本書在福山著作史中的地位非常尷尬。一個政治學者跨界到現代科技領域,用未來學家的口吻發言,怎麼看都覺得彆扭;更何況這本書寫於二〇〇二年,距今已有十四年之久,十四年也許能讓一本政治學著作成為經典——譬如福山那本「譽滿天下,謗亦隨之」的《歷史的終結與最後的人》(以下簡稱《歷史的終結》),但對於一本由外行人寫就的探討現代科技的著作,卻足以讓我們把它淘汰進垃圾箱;更何況福山在這本書中僅僅討論了生物技術革命對人類未來的影響,於信息技術的政治前景多有誤判,對人工智慧的發展只是一語帶過,在阿爾法圍棋(AlphaGo)戰勝李世石引發人工智慧熱的今天,多少顯得有點不合時宜。
福山和《歷史的終結》
那麼,我們為什麼要讀《我們的後人類未來》?
還是讓我們聽聽福山本人的回答吧,在本書序言中福山提出:「除非科學終結,否則歷史不會終結。」作為「歷史終結論」的最重要推手,福山這個斷言不啻為一種自我顛覆。雖然福山宣稱在政治的意義上人類歷史已然終結於自由民主制,但是他承認這個結論並不牢靠,面臨著諸多挑戰:比如伊斯蘭教會否成為民主的障礙,全球民主是否可能,如何在貧窮國家建立強有力的民主政治等等,其中最嚴重的挑戰來自現代科學,特別是生物技術革命。
福山這樣警告世人:「生物技術會讓人類失去人性……但我們卻絲毫沒有意識到我們失去了多麼有價值的東西。也許,我們站在了人類與後人類歷史這一巨大分水嶺的另一邊,但我們卻沒意識到分水嶺業已形成,因為我們再也看不見人性中最為根本的部分。」換言之,只要生物技術革命不加約束地繼續發展下去,那麼被終結的就不是歷史,而是自由民主制乃至人性本身。
福山是在杞人憂天或者痴人說夢嗎?我不這樣認為。最近谷歌首席未來學家雷·庫茲韋爾調整了他在《奇點臨近》的說法,認為人類永生的時間點也許不是二〇四五年,而是二〇二九年左右:「屆時醫療技術將使人均壽命每過一年就能延長一歲。那時壽命將不再根據你的出生日期計算,我們延長的壽命甚至將會超過已經度過的時間。」
雷·庫茲韋爾(Ray Kurzweil)
庫茲韋爾預言的「奇點」基於如下判斷:「技術的不斷加速是加速回歸定律的內涵和必然結果,這個定律描述了進化節奏的加快,以及進化過程中產物的指數增長。」我不曉得奇點會在哪一天到來——二〇四五年還是二〇二九年,但我相信的確存在奇點,到那時人工智慧將會超過人類智能,「一旦機器的智慧超過人的智慧,它們就會自己設計下一代機器」。到那時我們不僅要煩惱人類獲得永生後的意義問題,更要擔心「人類將來可能會從這個循環中被淘汰」的危險。
是時候探討現代科技對於人類基本生存狀況的重大影響了。
一
《我們的後人類未來》副標題是「生物技術革命的後果」,但在探討這個革命之前,我想先談一下方興未艾的人工智慧討論。
「他真的是人嗎?還是只樹懶?」(Illustration by Cai Meng,來源:中國日報網)
阿爾法圍棋以四比一的比分戰勝人類圍棋頂尖高手李世石的結果震驚了全世界。圍繞著這場世紀大戰,初步可以分為兩派立場,反對派對於人工智慧已經或者即將超越人類智能的觀點不以為然,相比之下,支持派對於人工智慧超越人類智能的前景持肯定甚至歡迎的態度。
反對派的理由之一是阿爾法圍棋沒有人類意義上的心靈或者意識:「此前兩役,阿爾法圍棋贏了,其實它並沒有真正地理解圍棋的基本原則,它唯一的概念就是布局和布局之間的關係,所以說它的程序學到的東西還很有限,並不像我們想像的那麼好,所謂的類推能力是由它積累的海量樣本造成的,這方面沒有創新,機器只知其然,不知其所以然。」
借用庫茲韋爾的說法,上述批評屬於「來自本體論的批評」,也即「計算機可以有意識嗎?」哲學家約翰·塞爾是反對派中的傑出代表,他竭力反對對意識進行物理還原主義的解釋,理由是「機器對自己正在做什麼沒有一點主觀意識,對它的任務也沒有感知」。
相比之下,在支持派看來,人類意識並不神秘,大腦只是一台高度複雜的有機計算機,它能通過外在特徵進行辨認。丹尼爾·丹尼特在《意識的解釋》中就說:「人類意識只是隨一種特殊的計算機運作而來的副產品。」庫茲韋爾相信,機器擁有意識只是時間問題,一旦達到必要的複雜程度,機器就會擁有意識這樣的人類特性。
丹尼爾·丹尼特《意識的解釋》
福山在《我們的後人類未來》中曾經一帶而過地處理過上述爭論,在他看來,機器擁有意識的可能性非常之小,這「並不是因為機器永遠無法複製人類智力——我認為它們在這方面也許會非常接近——而是因為它們幾乎不可能獲得人類情感。安卓系統、機器人或計算機突然能夠經歷人類情感,比如,恐懼、希望甚至性的慾望,這些都是科幻小說里的事情,從沒有任何人設想過這一切如何發生,哪怕僅是有細微的靠近。就像人類的許多其他意識,這個問題並不單單是沒有人知道情感本身是什麼,而是沒有人了解為何它會在人類的生物系統中存在」。
我認為福山的觀點錯失了人機大戰的關鍵問題。
首先,如果歸根結底「智能是一個物理過程」,那麼所謂的自由意志就可以還原為拓展未來可能性的能力,想像力就可以還原為連接不同事物的能力,創造力則是無中生有的能力,也就是突破既有範式、「自創武功」的能力,這些看似屬於人類獨有的屬性都可以還原成為演算法和計算力。阿爾法圍棋大戰李世石的表現已經向我們很好地展示了這一可能性,正如一位評論家所指出的:「說到底,所謂棋感、棋風、大局觀云云不過是人類在計算能力欠缺時求助的直覺和本能。」
其次,福山樂觀地認為人工智慧幾無可能獲得恐懼、希望之類的人類情感,可是問題在於,在人機競賽過程中,人類的情緒和慾望不是一個加分的能力。我們恰恰要問的是:機器為什麼要百分百地模仿人類?如果在未來的人機對抗中,情感不能加分而是減分,那麼機器的「冷酷無情」就不是缺點而是優點。阿爾法圍棋在和李世石對決的時候,從來不會面紅耳赤,也無需到室外抽一根煙來平復心情,它不恐懼也不希望,只是計算計算再計算。
李世石
作為人類頂尖棋手的李世石,在過去十五年里獲得了十幾個世界冠軍的頭銜,總共下了一萬盤圍棋對弈,經過三萬小時的訓練,他的大腦可以在每秒鐘搜索十個走子可能,相比之下,只有「兩歲」的AlphaGo經歷了三萬小時的訓練,每秒可以搜索十萬個走子可能。人類雖然可以用自然語言進行知識交流,但歸根結底還是一個人在戰鬥,因為人際交流信息的壁壘太高、速度太慢,與之相比,機器不是一個人在戰鬥,它可以通過網路高速地共享一切資料,機器的硬碟存儲能力可以無限大,運算速度無限快,機器永不疲倦、永不停歇,它可以始終如一地、「鬥志高昂」地進行深度學習,這是人類「學霸」永遠難以企及的。
人機大戰
人類所珍視和引以為傲的很多屬性和價值,比如生活方式的多樣性、自然語言的歧義性、情感的豐富細膩及脆弱,在與人工智慧的生死競爭場上,都不是優勢而恰恰是負擔。沒錯,它們可能是人類獨一無二性的體現,但就像蜈蚣有一百條腿,紅毛猩猩渾身披著長毛,這些獨一無二的屬性要麼無足輕重,要麼是進化不夠完全的表徵,要麼對人工智慧而言毫無意義。
迄今為止,人們在談論人工智慧無法替代人類的時候都是從「擬人」的視角出發,可是機器為什麼一定要以「人類」作為樣板呢?「魔鬼終結者」必須笨拙地扭轉脖子才可以看到身後的追殺者,為什麼它不可以在全身上下布滿視覺神經感測器,三百六十度無死角地監控可能的威脅?人工智慧無需在所有方面都模仿人類才能勝過人類,而只要在具有核心競爭力的關鍵領域佔先就足以克「人」制勝了。
有人說,人類智能最後的堡壘就是詩歌、小說和藝術。可是,小說家、藝術家什麼時候成為現代社會的主導性力量了?在一個寫詩的人比讀詩的人要多的時代,通過嘲諷機器不會寫出好詩來貶低機器的價值、禮讚人類的特殊性,不是太有諷刺意味了嗎?更何況,機器離寫出好詩已經不遠了。
關於人工智慧的最大迷思就在於,它們應該像它們的造物——人類一樣擁有人類所擁有的全部屬性:智力,解決問題的能力,想像力,創造力,道德義憤以及愛和怕的情感,這是典型的人類中心主義所導致的認知盲區。
主張人工智慧永遠不可能超越人類智能的另一個理由是被造物不可能超越造物主,這個觀念之所以錯誤,一是高估了人類,把人當成了上帝,一是低估了機器,把機器當成了人。十八世紀的法國哲學家拉美特利主張「人是機器」,現在看來,這或許不純然是對人的貶低,有一天機器會覺得這是對它們的羞辱。
一個比較天真的幻想是:因為祖先崇拜,來自奇點的智能可能會尊敬甚至崇拜創造了它們的祖先,也就是我們人類,因此人類將「成為心滿意足的寵物而不再是自由的人類」。可問題在於,人類或許不會成為人工智慧眼中的寵物,而是成為人類眼中的蟑螂,生殖力旺盛但卻毫無用處。
展望現代科技的發展前景時,必須擺脫人類中心主義的思路,唯其如此才能預見危機。
但是——這個但是非常的重要,我認為《我們的後人類未來》最大的價值正在於此:反思現代科技所帶來的倫理問題和政治問題時,人類中心主義卻是必須堅持的原則和底線,唯其如此才能解除危機。
二
在《人類簡史》最後一章「智人末日」中,以色列耶路撒冷大學歷史系教授赫拉利指出:「不論智人付出了多少努力,有了多少成就,還是沒辦法打破生物因素的限制。然而,就在二十一世紀曙光乍現之時,情況已經有所改變:智人開始超越了這些界限。自然選擇的法則開始被打破,而由智慧設計法則取而代之。」有三種方式能夠讓智慧設計取代自然選擇:生物工程,仿生工程,無機生命工程。人工智慧只是其中一種,也就是無機生命工程。
某種意義上,《我們的後人類未來》把重點放在生物技術革命而不是人工智慧是一個正確的選擇,因為相比無機生命工程,生物工程和仿生工程對於人類的未來影響也許更加直接和緊迫。
人類是一種設計不夠完善,功能不夠齊備,容易黑屏、死機,時常需要維修的造物,生物工程和仿生工程可以治療我們的種種病患,改進我們的種種缺陷。但是,就像福山所指出的,我們需要在「治療」與「改進」之間划出一條明顯的紅線,指引研究往前者方向發展,而對後者做出嚴格限制,因為後者很有可能成為改頭換面的「優生學」,意味著「只專門生育有著優選的遺傳特徵的人類」。
有人認為我們無法在治療和改進之間划出紅線,因為在理論上我們找不到區分兩者的方式。是啊,憑什麼說在三環路上開車時速八十一公里就比七十九公里更危險?但是我們必須要人為地划出一條紅線:八十一公里就是比七十九公里更危險!人類必須人為甚至武斷地划出界線,否則就毫無界線可言。
另一個問題也許更重要:「誰有決定權?」
對此福山的回答是:「到底由誰來決定科學被正當還是不正當應用,這個問題的答案事實上非常簡單,並且已通過好幾個世紀的政治理論與實踐得以確立:那就是組成民主政治共同體的成員,主要通過他們所選舉的代表執行,這就是所有這些事情的最高主宰,它擁有掌控技術發展的進度與範圍的權力。」
以探索和創造的名義,以求知和求真的名義,科學有著難以抗拒的魅惑力,它引領人類向著無限廣闊的領域拓展,無所畏懼地探索一切的可能性。但問題在於,「科學本身只是作為實現人類生存目的的一種工具;政治共同體決定什麼是適宜的目的,這最終並不是科學問題」。
因此,《我們的後人類未來》絕非一本關於生物技術革命的普及讀物,而是一本關於政治如何「鎖死」科技的政治學著作,以及追問人性是什麼的哲學著作。福山正是站在人類中心主義的立場上去追問和反思現代生物技術對於人類未來的影響。因為,歸根結底,我們要問的是:我們是什麼樣的人,以及能夠成為什麼樣的人?
我們是什麼樣的人?這個問題把我們帶回到關於「人類本性」的根本思考上。在這個問題上,福山是一個「保守主義者」,他拒絕對人性做多元主義和相對主義的理解,而是從古老的自然權利出發為全體人類的尊嚴做辯護。
我們能夠成為什麼樣的人?這不是一個無限開放的問題,福山承認「人的本性具有很大的彈性,順從這一本性我們能有十分充沛的選擇空間」。但問題在於人性「並不是可以無限延展的」。
沒錯,趨利避害、趨樂避苦是人之天性,為此我們進KTV和夜店逃避工作壓力,發明利他林和百憂解緩解情感的沮喪和精神的苦痛,可是我們真的願意讓技術徹底改變我們的生活乃至本性嗎?比如,藉助諾奇克的體驗機讓自己保持一輩子的興緻盎然,或者通過基因改造技術讓自己像愛因斯坦一樣聰明,和林志玲一樣美貌?
所有的生活都是一場實驗,但是生活不應該發生在化學實驗室里,而是要與每個人的自然天賦相適應,通過加入各種與自然相契的元素,比如熱情、努力、奮鬥、夢想以及混雜著愛與痛苦的生命體驗,才能認識你自己,發現你自己,成為你自己。這既是人之為人的本義,也是文化之為文化的本義。列奧·施特勞斯說,文化在今天的主要含義就是「心靈的耕種,是與心靈的自然本性相符合地照顧和改良心靈天生的諸般能力」。此處的關鍵詞是「自然」。生物技術也許可以幫助我們治癒疾病,延長壽命,讓孩子變得更加易於管教,但是它的代價卻是「一些無法言說的人類品質的喪失,如天分、野心或絕對的多元性」。當人類的身體可以像樂高積木一樣隨建隨拆,當人類的智力和情感可以像U盤一樣即插即用,我們的人格同一性、生活的統一性乃至文化本身就都分崩離析了。
因此,福山說,當我們反問自身,為什麼不願意衷心擁抱赫胥黎所描述的「美麗新世界」?答案就在於,「《美麗新世界》中的人也許健康富足,但他們已經不是人類。他們已不再需要奮鬥,不敢去夢想,不再擁有愛情,不能感知痛苦,不需做出艱難的道德選擇,不再組成家庭,也不用去做任何傳統上與人相關的事。他們身上再也沒有了賦予我們人類尊嚴(人格)的特徵。事實上,他們已經沒有同人類相似的任何事情,他們被控制人員養大,分成α、β、ε、γ等等級,彼此間保持彷彿人類與其他動物的距離。在能想像的最深刻的意義上,他們的世界如此不自然,因為人性已經被更改」。
因此,福山說,當我們進一步追問,為什麼赫胥黎以傳統方式界定的人類如此重要?答案就在於:「我們需要繼續感知痛楚,承受壓抑或孤獨,或是忍受令人虛弱的疾病折磨,因為這是人類作為物種存在的大部分時段所經歷的。」「因為人性的保留是一個有深遠意義的概念,為我們作為物種的經驗提供了穩定的延續性。它與宗教一起,界定了我們最基本的價值觀。」「我們試圖保存全部的複雜性、進化而來的稟賦,避免自我修改。我們不希望阻斷人性的統一性或連續性,以及影響基於其上的人的權利。」
也許有人認為上述思考過於悲觀和保守,請允許我重複前文的那兩句話:
展望現代科技的發展前景時,必須要擺脫人類中心主義的思路,唯其如此才能預見危機。
與此同時,反思現代科技所帶來的倫理問題和政治問題時,人類中心主義卻是必須堅持的原則和底線,唯其如此才能解除危機。
三
尼采
尼採在《權力意志》中說:「夠了:政治將被賦予不同意義的時代正在到來。」福山用這句話作為《我們的後人類未來》的題詞,用意一目了然。
不久前赫拉利在清華大學做了題為《二十一世紀會是史上最不平等的時期嗎?》的演講,他的核心論點是:「在二十一世紀,新技術將賦予人們前所未有的能力,使得富人和窮人之間有可能產生生物學意義上的鴻溝:富有的精英將能夠設計他們自身或者他們的後代,使其成為生理和心理能力都更為高等的『超人』,人類將因此分裂為不同的生物階層,先前的社會經濟階層系統可能會轉化為生物階層系統。」
坦白說,這個觀點一點都不新鮮,福山比赫拉利至少早說了二十四年。沒錯,是二十四年而非十四年。二十四年前也就是一九九二年,福山出版《歷史的終結》,在第五部分「最後的人」中福山預言了自由民主制可能遇到的挑戰:「長期來看,自由民主制之所以被從內部顛覆,要麼由於過度的優越意識、要麼由於過度的平等意識。我的直覺是,最終來說,對民主構成最大威脅的是前者。」
現代科技的發展——無論是生物工程、仿生工程還是無機生命工程——為少數人提供這種優越意識、成為尼采口中的「超人」創造了技術上的可能性,這將在根本上動搖福山的《歷史的終結》的論點。這也正是福山在十四年前創作《我們的後人類未來》的動機所在,因為——「除非科學終結,否則歷史不會終結。」
在福山的筆下,後人類的未來一點都不令人嚮往:「後人類的世界也許更為等級森嚴,比現在的世界更富有競爭性,結果社會矛盾叢生。它也許是一個任何『共享的人性』已經消失的世界,因為我們將人類基因與如此多其他的物種相結合,以至於我們已經不再清楚什麼是人類。它也許是一個處於中位數的人也能活到他/她的二百歲的世界,靜坐在護士之家渴望死去而不得。或者它也可能是一個《美麗新世界》所設想的軟性的專制世界,每個人都健康愉悅地生活,但完全忘記了希望、恐懼與掙扎的意義。」
面對這樣一個後人類的甚至是非人類的未來,也許有人仍舊無動於衷,甚至衷心歡迎,比如有科學家曾經這樣表態:「希望大家不要忘記兩點:一、按照現代科學的觀點,整個宇宙的生命是有限的;二、真理的盡頭是信仰。長期發展的結果如何?唯一可用以回答的就是凱恩斯的名言:『長期而言,我們都會死的。』人工智慧或其他技術在此之後,任何都是可能的,但人類已經沒有資格參與討論了。」
沒錯,凱恩斯的確說過「長期而言,我們都會死的」。在探討現代科技可能存在的威脅時,科學家們常引此言寬慰自己也寬慰人類,彷彿一瞬間就擁有了宇宙的尺度和胸懷。可是他們不曉得的是,凱恩斯這句話表達的不是對死亡的豁達,而是一個反諷。凱恩斯想說的是,面對迫在眉睫的市場失靈以及大面積失業的威脅,不能聽之任之,不要以為從長遠看,市場終會自動修復,可問題在於從長遠看,我們都會死的。因此,「長期而言,我們都會死的」就是在正話反說,就是在強調時不我待,因為一般而言我們都不想死,而且只要可能,我們就不打算死。所以我們才會「飢不擇食」,才會「死馬當成活馬醫」,才會嘲笑飛蛾撲火,因為螻蟻尚且偷生,何況人乎?為什麼從個體抽象到人類之後,科學家們就會如此地視死如歸,難道是因為這些威脅並不近在咫尺,難道是因為我們這一代人無須為此付出代價,還是因為科學家已經超越了個體的視角乃至人類的普遍視角,升華到了宇宙的視角?
我認同福山的這個判斷:「當面臨兩難的技術挑戰,利好與災難如此緊密地糾葛,在我看來,只能採取唯一的一種應對措施:國家必須從政治層面規範這項技術的發展與使用,建立相關機構區分技術的進展,哪些能幫助推進人類福祉,哪些對人類尊嚴與快樂帶來威脅。」
從觀念的普及,到意向性共識的達成,最終訴諸制度性的安排和實踐,這中間有太長的路要走,就此而言,福山的警示不是太早而是太晚,因為政治的運作也許已經趕不上科技指數型發展的腳步了。
我承認,在一個意義上,用政治「鎖死」科技的背後,依然是一種平等主義的衝動,而且是向下拉平的衝動,是弱者聯合起來防止出現無法約束的強者的衝動,是末人反擊超人的衝動。但在另一個意義上,用政治「鎖死」科技的背後,是對人類業已存在的文化和人性的守護,是在捍衛人之為人的尊嚴,是在反對由現代科技來定義「誰配稱為人類」的戰鬥。
(《我們的後人類未來》,福山著,廣西師範大學出版社即出)
點擊展開全文
※蘇格拉底名言錄
※蘇格拉底的說服術
※在思想與行為之間擺動的言論自由——明顯和即刻的危險規則分析
※吳飛:國際軟實力傳播戰略分析
TAG:吳飛微議 |