偉人霍金的遺言:脫離地球和警覺人工智慧
輪椅上的斯蒂芬·霍金總算脫離了地球,可以和愛因斯坦、牛頓他們一起打打牌了。
在曩昔的二十年里,霍金是明星,除了持續探究國際理論,他也出現在各種場合,為所有關切人類命運的主題發聲。而在他逝世前的這幾年中,霍金最重視的論題就是:脫離地球和警覺人工智慧。
現在咱們就整理下霍金經過各種渠道議論這兩個論題的言辭。
關於脫離地球,早在2011年霍金在承受美國視頻同享網站BigThink訪談時就稱地球將在兩百年內消滅,人類要想活命只能移民外星球。
2017年11月5日,北京騰訊WE大會的現場。霍金經過視頻指出了人類移民太空的原因地點:一個原因是,對咱們來說,地球變得太小了。在曩昔二百年中,人口增加率是指數級的,即每年人口以相同比例增加。現在這一數值約為1.9%。 這聽起來可能不是許多,但它意味著,每四十年國際人口就會翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段進程中,國際人口比我出世時膨脹了四倍。這樣的指數增加不能持續到下個千年。 到2600年,國際將擁擠得 「摩肩擦踵」,電力耗費將讓地球變成「火熱」的火球。這是危如累卵的。然而我是個樂觀主義者,我信賴咱們可以避免這樣的國際末日,而最好的方法就是移民到太空,探究人類在其他星球上日子的可能。
而在2017年7月,霍金就痛批美國總統特朗普退出氣候問題《巴黎協議》的決議,可能將導致不可逆轉的氣候變化,正告稱此舉或將讓地球變成一個金星相同的溫室星球。霍金在承受BBC專訪時表明,咱們正在挨近全球變暖不可逆轉的臨界點,特朗普的決議可能將地球推過這個臨界點,變成像金星相同的星球,溫度高達250度,而且下著硫酸雨。
也是在2017年6月播映的紀錄片《遠征新地球》(Expedition New Earth)中,霍金說,在未來一百年內,人類為生計有必要脫離地球,在太空尋求新家。
脫離地球,霍金也不是光嘴皮子嚇唬嚇唬咱們,2016年4月12日在紐約宣告發動「打破射星」方案,將同俄羅斯商人尤里·米爾納(Yuri Milner),以及美國交際網站面簿創始人兼總裁扎克伯格(Mark Zuckerberg)合作締造能以五分之一光速飛往比鄰星的微型星際飛船。
除了地球行將面對的各種危險,霍金更關切人類正在發明一個消滅自己的怪物:人工智慧(AI)。
2017年3月,霍金在承受英國《泰晤士報》採訪時再次發出正告,「人類需求操控以人工智慧為代表的新式科技,以避免它們在未來可能對人類生計帶來的消滅性要挾。」他還說,「自從人類文明開端以來,侵犯便一向存在,往往出現在相對具有生計能力優勢的不同集體之間,而未來人工智慧進一步開展便可能具有這種『優勢』」,霍金解釋自己的正告時說道,「他們本身也是生根於達爾文的進化論之中。因此人類需求使用邏輯和理性去操控未來可能發生的要挾。」
2016年10月19日,劍橋大學「萊弗休姆的未來智能中心(LCFI)」正式投入使用。霍金在慶祝儀式上宣布了講演。霍金在講演中批評了人工智慧的無節制開展,他以為,人工智慧技術的確有期望帶來巨大的福利,比方剷除疾病和貧困,可是它相同也可能帶來危險,比方強壯的自主式兵器,或許協助少數人壓迫多數人。「咱們花了很多的時刻來學習前史。」霍金說,「讓咱們面對現實,大部分的前史是愚蠢的。所以關於那些學習未來智能的人應該表明歡迎。」 「咱們日子的每一個方面都會改動。總之,發明AI的成功可能是咱們文明前史上最大的事情。」霍金說。
2016年1月26日和2月2日在BBC電台第四頻道播出霍金瑞思系列講演(Reith Lectures),在講演中他直言,科學技術的進一步開展會惹出更多的新費事。相同在這個講演中,霍金依舊以為科技進步是人類的新要挾。他乃至提及若人類最終得以在其他星球樹立家鄉,或許還能倖存下來。
「雖然地球在某一年遭受滅頂之災的可能性很低,但隨著時刻的推移,在未來幾千或幾萬年,這會是可以預見的事情。那時,咱們應該現已進入太空、住到其他星球上。所以地球上的消滅並不意味著人類的完結。」「然而,至少在未來數百年里咱們還無法在太空國際建起人類的地盤。所以咱們現在有必要十分當心。」
讓咱們別忘記霍金的預言和正告。
TAG:人文祥雲 |