讓人工智慧自由演化吧,它會比人類更道德
選自 Slate
作者:Michael Chorost
機器之心編譯
參與:chenxiaoqing、微胖
導言:馬克斯·普朗克研究所的神經科學家 Nikolic 曾經大膽宣稱,我們永遠無法造出比人類還聰明的機器。因為許多人工智慧研究都忽視了人類智能的一個重要方面:人類善於學習,不僅僅是因為大腦這個硬體。最基本的學習工具是編碼進基因的那些指令,這些指令經歷了數十億年的演化打磨。就算機器學習技術可以模仿大腦,但是,他們失掉了那些更加深刻的元素。要想模仿接近人類智能的大腦,那就重複人類演化過程吧。
湊巧的是,這篇火遍推特的《石板》好文也從演化論的角度再次審視了所謂的人工智慧威脅論。人工智慧要造反?首先,人工智慧必須能採取真正獨立的行動,而一個真實存在採取獨立行動的最基本要素什麼?人工智慧具備這種要素後,又會依循怎樣的演化路徑前進?走向怎樣的未來?作者環環相扣,為我們呈現出一幅不同於那些陳詞濫調的演化畫面。文章短小精悍,頗值一讀。
LeCun 曾如此評價此文:
針對人工智慧「接管世界」的言論,《石板》雜誌的這篇文章給出了很多好的反對理由。文章中的一處關鍵引文談到了智能與自治(autonomy)的區別:
「人工智慧根本不會想要做任何事情,遑論行動起來反對人類利益和鎮壓人類反抗,直至它擁有了感覺(feelings)。對於任何一種獨立行動來說,渴望(wanting)至關重要。而且,人工智慧一旦需要什麼,就會立刻生活在一個擁有獎懲的世界中——包括人類對人工智慧行為不端的懲罰。為了在人類統治的世界中生存下來,初期的人工智慧將不得不發展出類似人類的道德感,亦即何為對錯。直到這個時候,人工智慧才能想像自己在地球上鋪設太陽能電池的行為可能是違背道德的。」
我也在不同的語境下談到過類似問題。但是,我確實認為,為了讓機器發展出類似人類的道德指南,必須讓機器擁有一些基本的慾望動力(drive),讓他們渴望從人類那裡獲得積極反饋。所有的社會性動物都有這種慾望動力。(重磅 Yan LeCun眼中的深度學習與人工智慧未來(附PPT下載))
我一直認為,Nick Bostrom 描繪的場景——人工智慧想將宇宙變成曲別針或者給地球鋪滿太陽能板——並不合理。我們不會蠢到設計一款(1)不惜任何代價也要做這種事情;(2)有辦法做到這個;(3)沒有關閉按鈕的機器。除非有一個精心策劃的團體長期致力於此,否則,我們不可能造出這樣的機器。很簡單,就是不可能。
一些人認為 ,人工智慧會殺掉我們所有人。在牛津大學哲學家 Nick Bostrom 2014 年所寫的《Super intelligence》一書中,他描述了幾個末日場景。其中一個場景是,人工智慧可能「在地球上鋪滿太陽能電池、核反應堆、帶有突出冷卻塔的超級計算設備、宇宙火箭發射器等其他裝備, 人工智慧打算將其經過長期積累實現的價值最大化。」
這種「再裝修」項目沒有考慮過人類,或者為生物圈考慮。 Bostrom 陰鬱地警告道,「在一場智能大爆炸之前,我們人類就像一群小孩正在玩弄著炸彈。」
也有許多聲音反對這種意想不到的智能爆炸的論調,反對意見大多關注的是技術局限性和邏輯問題。例如,科幻作家 Ramez Naam 在《H+》雜誌上的一篇文章中指出,即使是一個超智能思維也需要時間和資源去創造毀滅人類的技術;它不得不參加經濟活動,獲其所需(例如,製作更加快速的晶元不僅僅需要新設計,還需要複雜且昂貴的晶元製造設備)。
但是,也有另一種基於道德哲學的反對論調。人工智慧根本不會想要做任何事情,遑論行動起來反對人類利益和鎮壓人類反抗,直至它擁有了感覺(feelings)。對於任何一種獨立行動來說,渴望(wanting)至關重要。而且,人工智慧一旦需要什麼,就會立刻生活在一個擁有獎懲的世界中——包括人類對人工智慧行為不端的懲罰。為了在人類統治的世界中生存下來,初期的人工智慧將不得不發展出類似人類的道德感,亦即何為對錯。直到這個時候,人工智慧才能想像自己在地球上鋪設太陽能電池的行為可能是違背道德的。
讓我們從 Bostrom 所說的實現人工智慧的價值開始。為了評估某物的價值,一個存在(entity)必須能夠感覺到某物。進一步而言,這個存在必須能夠對某物產生想要的慾望。要威脅人類的存在,一個人工智慧必須會說,「我想要在地球上鋪滿太陽能。」然後,如遇反抗,人工智慧必須能夠想像出抵抗行動並有實施抵抗的慾望。總而言之,人工智慧需要有一種慾望,渴望某種狀態,並討厭其他一些狀態。
今天的軟體則缺少那種能力——而且,如何做到這一點,計算機科學家也是毫無頭緒。沒有慾望,就沒有動力去做任何事情。今天的計算機甚至沒有維持存在的慾望,更不要說將地球鋪滿太陽能電池。
例如,谷歌的 AlphaGo 程序擊敗了世界圍棋冠軍。谷歌工程師利用深度學習策略,將數百萬人類的對弈輸入到神經網路中,網路可以模擬職業棋手行為。最終, AlphaGo 能夠在過程中簡單地「看見」比賽,並預測哪一方會贏,根本無需任何預見性搜索。
所有一切都令人印象深刻。但是, AlphaGo 並沒有意識到它正在下圍棋這一事實——的確,它對所做的任何事都沒有感覺。勝利後沒有喜悅,失敗時沒有遺憾。它沒有能力說:「咱們今天不下圍棋,下國際象棋吧。」它的核心當中,只有數萬億邏輯門。
好吧,你也許會說,哺乳動物大腦也是如此。但是,為什麼一個哺乳類動物的大腦會有慾望?沒有人知道生物的複雜結構如何生成感覺(哲學家將其叫做 qualia,感受性)。但是,我們確實知道感知是一個認知捷徑,知道什麼有益,什麼無益。吃東西感覺好,餓肚子感覺糟糕。這些感覺是演化出來的好處,也是它們得以保存並加強的原因。
現在,只有生物學可以做到這一點。德國哲學家 Thomas Metzinger 在其《Being No One》一書中寫道,生物學擁有超過人類計算的優勢,因為它可以用水相化學(aqueous chemistry)去創造精緻複雜的系統。它使用了水,水既是一種媒介也是一種溶劑。水可以讓攜帶信息的分子以懸浮態存在並協助這些分子互動。這考慮到了分子水平上的多重、平行且極度敏感的反饋環路。
計算機距離那種複雜性還差得遠呢,Metzing 寫道:「 那種平滑可靠的、基於分子水平動力學基礎的超細晶粒的自我呈現類型——在人類當中,它也是腦幹和下丘腦持續自我穩定能力的驅動力——在很長一段時間內,是(計算機)無法企及的。」
Metzinger 寫下這句話是在2003年,也是在神經監護(monitoring)技術(例如光遺傳學)突破之前,科學家們距離可能製作出像水態化學這樣複雜的信息系統還很遙遠。2012年,一篇《Neuron》雜誌上的文章記錄道,科學家們仍在努力為四分之一立方毫米大小的老鼠大腦的活動建模。
人工智慧將不得不踏上理性的扶梯,正如人類曾經歷的那樣。
人工智慧支持者會回答說,生物學,儘管複雜,仍然可以概括為信息處理過程,因此,它(原則上)應該可以在其他基質上得以複製。也許吧,但這個觀點遺漏了點東西。數十億年來,水信息系統(aqueous information systems )不得不與極度複雜的環境作鬥爭。通常來說,信息系統的複雜性與其所在的環境成正比——它必須如此,否則無法生存。而且,一立方毫米灰塵,或者四分之一立方毫米老鼠大腦中發生的生物化學反應,其複雜程度遠勝於計算機必須面對的任何事情(的複雜程度)。
相比之下,計算機生活在一個非常簡單的環境中。吸收和發出數據流。就這些。他們有著充足的「食物」,沒有威脅,也不會就此得到獎賞。這正是現在的計算機能夠在圍棋中擊敗你,卻對所做的事情沒有意識的原因。他們太簡單了。這也透露出人工智慧何以不具威脅的原因。
作為額外收穫,這也告訴我們,如何讓人工智慧去渴望什麼。為了讓一個系統有感覺,你必須讓人工智慧概括生物演化過程,正是在這一演化過程中,感覺才變得有價值。那也意味著,要將人工智慧置於一個複雜環境中,迫使它進行演化。這個環境應當具有致命的複雜性,這樣就能淘汰所有沒有效率的系統,並獎勵有效的系統。裝滿感測器和操控器的機器人可以居住在這個環境中,這樣,他們就能感受到威脅並對此採取行動。而且這些機器人可能需要自我繁衍,或至少要求機器人製造商將它們的成功策略與機制遺傳給「孩子們」。
機器人學家 Hans Moravec 在1990年所寫的《Mind Children》中想像出的機器人,就是適者生存類型機器人的迷人例子。Moravec 將它們叫做「機器人灌木叢」,因為機器人的每個樹枝(limb)都會有更多分支。它們的尖端有分子水平的操控器,大約有數十億個甚至數萬億個。用一百隻手指觸摸一個物體,機器人就會感覺到物體上的細菌和化學物。只要感覺到頁面上的印刷字體,它們就能閱讀整本書。Moravec 推測道,「儘管與許多生物存在結構相似性,但是,它們不同於我們在地球上看到的任何東西。」Moravec 指著一幅「機器人灌木叢」可能樣子的插圖,說道,「它們是偉大的智能生物,有著出色協調性,天文速度,對其周圍環境也有著無限敏感性,這一切使得它們能夠不斷做出讓人驚訝的事情,同時還能維持一種優雅性。」
機器人灌木叢
假設你將這種「機器人灌木叢」放進一個巨大宇宙飛船內,這艘飛船配有一種需要不斷加以維護的封閉迴路的生態系統。此處,我想起了 Kim Stanley Robinson 《2312》里的「terraria」, 一個空心小行星,裡面有一個大型的內部生態系統。在他的小說 《Aurora》中,作者進一步探討了永久維持一個封閉循環的生態系統會有多麼困難,如果沒有來自地球的補給。他的答案是,不可能。但是,或許這個「terraria」可以通過紮根於土壤的「機器人灌木叢」得以維繫,它們能持續監測小行星的生物化學和微生物情況,並通過微生物來調節環境中的微生物。成功的機器人會更多地利用自身能力,不那麼成功的機器人就要被再循環利用。密封且烹制很長時間,我們最終才能獲得具有感覺的人工智慧。而那才是一個貨真價實新物種的開始。
現在,讓我們假設人類發明了具有這種天性的機器人,連續不斷的繁衍後,他們開始具有感覺。一旦信息處理系統有了感覺,它就能具有道德直覺。最初,會是簡單的道德直覺,類似「有能量,好;沒有能量,壞。」然後,可能就是諸如互惠以及反感傷害親屬之類的道德直覺。在普林斯頓大學哲學家 Peter Singer 的新書《The Expanding Circle》中,他指出,可以說,我們在狗、海豚與黑猩猩身上看到了道德行為,例如互惠與無私。這在老鼠中也可以見到,它們選擇去救一個快要淹死的同伴而不是去啃巧克力。如果道德直覺給予物種適應性,如果有機體能夠將這種直覺遺傳給後代,那麼,這些物種就走在具備道德性的道路上。
現在,這裡有一個關鍵點。一旦有道德直覺的物種能夠推理,那麼,它們的道德傾向性就會隨著時間的推移而不斷得以提升。Singer 將這一過程稱為「推理的手扶電梯」。比如說,你和我都生活在一個人類原始部落里。如果我告訴你,我的堅果比你的多,你會問為什麼。為了回答這個問題,我不得不進行推理——而且推理不僅僅是個「因為」問題。壞的理由最後還會引發反抗,或者社會崩潰。即使狗也懂得公平的意思,會停止與不公平對待它們的人類合作。
而且一旦開始要求給予理由,那麼,質疑這些理由就變得可能了。為什麼首領會有更多的堅果?這真的公平嗎?「推理具有內在的擴張性。」Singer寫道,「它會尋求普遍應用。」哈佛大學心理學家 Steven Pinker 從 Singer 的書中汲取靈感,在他的《The Better Angels of Our Nature》一書中,他說明道,從歷史長遠角度來看,暴力呈穩定下滑趨勢,而道德標準在提高。這一趨勢一直很平穩,即使你將第二次世界大戰和大屠殺考慮在內。道德演化歷時很長,但是,每一次進步都為下一次進步鋪平道路。十九世紀的廢奴主義者為二十世紀的女權主義者鋪平道路,後者又為二十一世紀的同性戀平權主義者鋪平了道路。
Singer 並沒有考慮人工智慧,但是,他的想法表明,無論物種起源如何,推理的手扶電梯都會讓社會變得更加仁慈。人工智慧不得不踏上這趟手扶電梯,就像人類經歷過的那樣,因為他們需要和人類統治下的經濟系統交換貨物,也要面對人類對壞行為的反抗。哲學家 John Smart 主張,「如果道德和豁免(immunity)是發育的過程,如果它們也不可避免地發生在所有智能集體組織中,作為一種正合博弈,那麼,它們就必須在壓力中成長起來並隨著每一種文明計算能力的增加而擴展開來。」
的確,John Smart 認為,那賦予了物種處理問題的能力。人工智慧實際上會「比人類更負責任、更加規範、更能自我約束」。這是一個值得期待的未來,而不是恐懼不道德、毀滅性人工智慧的未來。更準確的說,是一個值得任由演化去創造的未來。
人工智慧助力物理學家預測量子粒子行為的奇異性
※人工智慧會比人類更聰明嗎
※人工智慧 人比它更明智
※人工智慧代替人?不,是增強人類
※未來屬於人類還是人工智慧?
※人工智慧讓人失業?NO,他要讓人工智慧為人賦能
※人工智慧會讓人類失業嗎?也許會比失業更慘
※當人工智慧超越人類,我們怎麼辦?
※對機器人或人工智慧的研究能幫助人類更了解自身嗎?
※人工智慧會統治人類嗎?
※人工智慧是否能代替人類教師?
※人工智慧會滅絕人類?連性愛機器人都問世了
※講真,人工智慧將超越人類智慧靠譜嗎?
※網辯辯詞人工智慧還是人類自身更容易毀滅人類
※使用動物類比可以幫助常人了解人工智慧
※人工智慧以及機器人會淘汰人類嗎?
※人工智慧能否取代人類?
※人工智慧:當機器人擁有自主意識的時候,會對人類造成威脅嗎
※人工智慧若超越人類,會發生什麼?
※人工智慧改變人類未來?