通用人工智慧何時來?專家預測還需81年!
新智元報道
來源:theverge
編輯:大明
【新智元導讀】通用人工智慧(AGI)是AI研究的終極目標。這個目標何時能實現?在近日對全球23位頂尖AI學者的一次調查中,最樂觀的人給出的時間為2029年,最悲觀的人認為要到2200年。平均來看,這個時間點為2099年。我們有些許可能在有生之年見證AGI的實現。
人工智慧學科的核心目標是,有朝一日我們能夠建造像人類一樣聰明的機器。這樣的系統通常被稱為通用人工智慧系統(AGI)。
到目前為止,我們已經建立了無數AI系統,在特定任務中的表現可以超過人類,但是當涉及到一般的腦力活動時,目前還沒有一個AI系統能夠比得上老鼠,更別說超過人類了。
但是,儘管關於AGI的話題在人工智慧領域一直被廣泛討論,但研究人員對於這一宏偉目標何時實現的問題上,幾乎從未達成一致意見。
23位頂尖AI專家預測:通用人工智慧可能在2099年實現
在近日出版的一本名為《智能架構》的新書中,該書的作者、未來學家馬丁·福特採訪了AI領域的23位最傑出的人物,其中包括DeepMind首席執行官Demis Hassabis,谷歌AI首席執行官Jeff Dean和斯坦福AI負責人李飛飛等。
其中一個話題要求受訪對象做出預測,我們在哪一年能夠有50%的機會成功實現通用人工智慧?
在23位受訪者中,有18人回答了這個問題,但只有兩人願意具名回答。
有趣的是,這兩個人給出的答案是最極端的:谷歌的未來學家和工程總監Ray Kurzweil認為,這個時間為2029年。而iRobot聯合創始人Rodney Brooks的回答則是2200年。其餘人給出的答案在這兩個時間點之間,平均算下來,這個時間點為2099年,也就是81年之後。
換句話說:有一點可能,我們能夠在有生之年,見證通用人工智慧的實現。
通用AI就是具備廣泛智能水平的AI,但我們目前仍缺少實現通用人工智慧的很多關鍵技術
要實現通用人工智慧,目前缺乏必要的技術基礎
從調查結果看,對這個問題的態度和年齡之間可能存在一些相關性。福特指出,有些接受採訪的研究人員已經70多歲,經歷過AI領域的起起伏伏。 「如果你身處AI領域,對這個問題確實會變得更加悲觀。」
福特說,這個調查顯示出專家們對這個問題的有趣的分歧,不是關於何時實現AGI,而是使用現有方法是否可能實現AGI。
一些研究人員表示,現在大部分基本工具和條件都已經具備了,實現AGI只需要時間和精力了。還有人則表示,我們目前仍然缺少實現這一目標所需的重大技術突破。
目前AI研究人員的大量成果都基於深度學習,這部分人傾向於認為未來的進步離不開神經網路,即當代AI的核心。而具有其他AI背景的人認為,實現AGI需要通過其他方法,比如符號邏輯。無論哪種方式,對這個問題都存在相當大的分歧。
福特說:「深度學習陣營中的一些人非常看不起在AI中直接設計常識之類的東西。他們認為這種想法很愚蠢。有人說,這就像是要把一些信息直接粘貼到大腦中一樣。」
許多專家認為,我們目前還缺少實現AGI的一些必要技術基礎。
所有受訪專家都提到當前AI系統的局限性,並提到了目前尚未掌握的關鍵技術。包括遷移學習、無監督學習等。(目前絕大多數機器學習方法都要依賴人工標記數據,這是AI技術發展的嚴重瓶頸。)
盧瑟福預測原子能永遠不能提取,結果16小時遭「打臉」
加州大學伯克利分校教授Stuart Russell曾寫過一本關於AI的基礎教科書,他說,實現AGI所需的那些技術突破「並不是指更大的數據集,速度更快的機器」,所以這個目標很不容易實現。
「說起這個問題,我總是要說核物理學研究中的故事,」Russell在接受採訪時說。 「原子核物理學之父盧瑟福於1933年9月11日曾表示,我們永遠不可能從原子中提取出原子能。也就是說,他對「原子能何時誕生」的預測是「永遠不可能」。
但事實證明,第二天早上Leo Szilard看到了盧瑟福的表態,覺得很煩,然後第二天就發明出了由中子介導的鏈式核反應!
「本來盧瑟福的預測是「永遠不可能」,而事實是,大約16個小時後就實現了!同樣,我覺得對AGI何時實現的預測也是這樣,這種關於未來的遙遠預測其實沒什麼意義。」
福特表示,這種在基本層面上的不可知性,可能是受訪專家不願意具名公開預測這個問題的重要原因。 「那些預測時間距離今天較近的人,可能會擔心會引發太多不必要的關注。」他說。
許多研究人員表示,與超級人工智慧的威脅相比,未來對人類威脅更大的是經濟問題
現在討論AGI毫無意義,不如多關注AI現實
關於通用人工智慧可能帶來的危險,眾多專家同樣意見不一。牛津大學哲學家NickBostrom是《超級智能》(這是「鋼鐵俠」馬斯克的最愛讀的書之一)的作者,他曾經對通用人工智慧可能帶來的危險做出激烈的表態。
他說,人工智慧對人類的威脅可能比氣候變化更大。
「我覺得,值得擔憂的關鍵問題不是AI會因為被我們奴役,而對我們產生厭惡或怨恨,也不是擔心AI突然產生意識的火花,並背叛我們。」博斯特羅姆說。「而是AI會去全力追求一個不同的目標,而這個目標並不是我們真正想要的。」
大多數受訪者表示,與全球經濟問題和在戰爭中使用先進自動化技術等問題相比,AI威脅人類的問題還極為遙遠。
哈佛大學人工智慧教授Barbara Grosz表示:通用AI倫理問題大多是「沒說到點子上,轉移了人們的注意力。真正的問題是,目前的AI系統就已經產生很多道德問題了。在這種情況下,我認為將注意力轉移到遙遠的未來場景是不合適的。」
福特說,這種觀點上的反覆爭論,可能是智能架構建立時最重要的一點:在AI這樣複雜的領域,確實沒有簡單唯一的答案。即使是頂級的精英科學家中,也不可能就世界面臨的基本問題和挑戰達成一致意見。
那麼,我們究竟在這個問題上達成什麼共識?福特表示,共識只有一個:無論AI接下來會朝什麼方向發展,都將是非常具有破壞性的。
參考鏈接:
https://www.theverge.com/2018/11/27/18114362/ai-artificial-general-intelligence-when-achieved-martin-ford-book
【加入社群】
新智元 AI 技術 + 產業社群招募中,歡迎對 AI 技術 + 產業落地感興趣的同學,加小助手微信號:aiera2015_2入群;通過審核後我們將邀請進群,加入社群後務必修改群備註(姓名 - 公司 - 職位;專業群審核較嚴,敬請諒解)。
※福布斯2019 AI趨勢大預測:語音圖像技術突飛猛進,要像信任醫生一樣信任AI
※斯坦福CS230官方指南:CNN、RNN及使用技巧速查
TAG:新智元 |