當前位置:
首頁 > 新聞 > 通用人工智慧何時來?專家預測還需81年!

通用人工智慧何時來?專家預測還需81年!

新智元報道

來源:theverge

編輯:大明

【新智元導讀】通用人工智慧(AGI)是AI研究的終極目標。這個目標何時能實現?在近日對全球23位頂尖AI學者的一次調查中,最樂觀的人給出的時間為2029年,最悲觀的人認為要到2200年。平均來看,這個時間點為2099年。我們有些許可能在有生之年見證AGI的實現。

人工智慧學科的核心目標是,有朝一日我們能夠建造像人類一樣聰明的機器。這樣的系統通常被稱為通用人工智慧系統(AGI)。

到目前為止,我們已經建立了無數AI系統,在特定任務中的表現可以超過人類,但是當涉及到一般的腦力活動時,目前還沒有一個AI系統能夠比得上老鼠,更別說超過人類了。

但是,儘管關於AGI的話題在人工智慧領域一直被廣泛討論,但研究人員對於這一宏偉目標何時實現的問題上,幾乎從未達成一致意見。

23位頂尖AI專家預測:通用人工智慧可能在2099年實現

在近日出版的一本名為《智能架構》的新書中,該書的作者、未來學家馬丁·福特採訪了AI領域的23位最傑出的人物,其中包括DeepMind首席執行官Demis Hassabis,谷歌AI首席執行官Jeff Dean和斯坦福AI負責人李飛飛等。

其中一個話題要求受訪對象做出預測,我們在哪一年能夠有50%的機會成功實現通用人工智慧?

在23位受訪者中,有18人回答了這個問題,但只有兩人願意具名回答。

有趣的是,這兩個人給出的答案是最極端的:谷歌的未來學家和工程總監Ray Kurzweil認為,這個時間為2029年。而iRobot聯合創始人Rodney Brooks的回答則是2200年。其餘人給出的答案在這兩個時間點之間,平均算下來,這個時間點為2099年,也就是81年之後。

換句話說:有一點可能,我們能夠在有生之年,見證通用人工智慧的實現。

通用AI就是具備廣泛智能水平的AI,但我們目前仍缺少實現通用人工智慧的很多關鍵技術

要實現通用人工智慧,目前缺乏必要的技術基礎

從調查結果看,對這個問題的態度和年齡之間可能存在一些相關性。福特指出,有些接受採訪的研究人員已經70多歲,經歷過AI領域的起起伏伏。 「如果你身處AI領域,對這個問題確實會變得更加悲觀。」

福特說,這個調查顯示出專家們對這個問題的有趣的分歧,不是關於何時實現AGI,而是使用現有方法是否可能實現AGI。

一些研究人員表示,現在大部分基本工具和條件都已經具備了,實現AGI只需要時間和精力了。還有人則表示,我們目前仍然缺少實現這一目標所需的重大技術突破。

目前AI研究人員的大量成果都基於深度學習,這部分人傾向於認為未來的進步離不開神經網路,即當代AI的核心。而具有其他AI背景的人認為,實現AGI需要通過其他方法,比如符號邏輯。無論哪種方式,對這個問題都存在相當大的分歧。

福特說:「深度學習陣營中的一些人非常看不起在AI中直接設計常識之類的東西。他們認為這種想法很愚蠢。有人說,這就像是要把一些信息直接粘貼到大腦中一樣。」

許多專家認為,我們目前還缺少實現AGI的一些必要技術基礎。

所有受訪專家都提到當前AI系統的局限性,並提到了目前尚未掌握的關鍵技術。包括遷移學習、無監督學習等。(目前絕大多數機器學習方法都要依賴人工標記數據,這是AI技術發展的嚴重瓶頸。)

盧瑟福預測原子能永遠不能提取,結果16小時遭「打臉」

加州大學伯克利分校教授Stuart Russell曾寫過一本關於AI的基礎教科書,他說,實現AGI所需的那些技術突破「並不是指更大的數據集,速度更快的機器」,所以這個目標很不容易實現。

「說起這個問題,我總是要說核物理學研究中的故事,」Russell在接受採訪時說。 「原子核物理學之父盧瑟福於1933年9月11日曾表示,我們永遠不可能從原子中提取出原子能。也就是說,他對「原子能何時誕生」的預測是「永遠不可能」。

但事實證明,第二天早上Leo Szilard看到了盧瑟福的表態,覺得很煩,然後第二天就發明出了由中子介導的鏈式核反應!

本來盧瑟福的預測是「永遠不可能」,而事實是,大約16個小時後就實現了!同樣,我覺得對AGI何時實現的預測也是這樣,這種關於未來的遙遠預測其實沒什麼意義。」

福特表示,這種在基本層面上的不可知性,可能是受訪專家不願意具名公開預測這個問題的重要原因。 「那些預測時間距離今天較近的人,可能會擔心會引發太多不必要的關注。」他說。

許多研究人員表示,與超級人工智慧的威脅相比,未來對人類威脅更大的是經濟問題

現在討論AGI毫無意義,不如多關注AI現實

關於通用人工智慧可能帶來的危險,眾多專家同樣意見不一。牛津大學哲學家NickBostrom是《超級智能》(這是「鋼鐵俠」馬斯克的最愛讀的書之一)的作者,他曾經對通用人工智慧可能帶來的危險做出激烈的表態。

他說,人工智慧對人類的威脅可能比氣候變化更大。

「我覺得,值得擔憂的關鍵問題不是AI會因為被我們奴役,而對我們產生厭惡或怨恨,也不是擔心AI突然產生意識的火花,並背叛我們。」博斯特羅姆說。「而是AI會去全力追求一個不同的目標,而這個目標並不是我們真正想要的。」

大多數受訪者表示,與全球經濟問題和在戰爭中使用先進自動化技術等問題相比,AI威脅人類的問題還極為遙遠。

哈佛大學人工智慧教授Barbara Grosz表示:通用AI倫理問題大多是「沒說到點子上,轉移了人們的注意力。真正的問題是,目前的AI系統就已經產生很多道德問題了。在這種情況下,我認為將注意力轉移到遙遠的未來場景是不合適的。」

福特說,這種觀點上的反覆爭論,可能是智能架構建立時最重要的一點:在AI這樣複雜的領域,確實沒有簡單唯一的答案。即使是頂級的精英科學家中,也不可能就世界面臨的基本問題和挑戰達成一致意見。

那麼,我們究竟在這個問題上達成什麼共識?福特表示,共識只有一個:無論AI接下來會朝什麼方向發展,都將是非常具有破壞性的。

參考鏈接:

https://www.theverge.com/2018/11/27/18114362/ai-artificial-general-intelligence-when-achieved-martin-ford-book

【加入社群】

新智元 AI 技術 + 產業社群招募中,歡迎對 AI 技術 + 產業落地感興趣的同學,加小助手微信號:aiera2015_2入群;通過審核後我們將邀請進群,加入社群後務必修改群備註(姓名 - 公司 - 職位;專業群審核較嚴,敬請諒解)。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

福布斯2019 AI趨勢大預測:語音圖像技術突飛猛進,要像信任醫生一樣信任AI
斯坦福CS230官方指南:CNN、RNN及使用技巧速查

TAG:新智元 |