「比核心更危險」:艾倫馬斯克仍然堅定監管人工智慧
建造一艘飛船送人火星的人利用他在南部的西南風貌重申了他的信念,即人工智慧的危險遠遠大於核彈頭的危險。
企業家艾倫馬斯克長期以來一直認為創新者需要了解人工智慧(AI)為未來帶來的社會風險,但在周日南西南部(SXSW),SpaceX創始人將他計劃的第二次到來黑暗時代,注意到AI「嚇壞了他」。
與他的朋友,科幻西部系列Westworld Jonathan Nolan的創造者,馬斯克一起在沙發上露面,馬斯克說,雖然他通常不是一個監管和監督的倡導者,但是人工智慧命題是他可以例外的地方。
「這是一個你對公眾有非常嚴重危險的情況,因此需要有一個能夠洞察並且監督的公共機構來確認每個人都安全地開發人工智慧 - 這是非常重要的,」他說。
「一些人工智慧專家認為他們比他們知道的更多,他們認為自己比他們聰明......這往往困擾聰明的人,他們通過自己的智慧來定義自己,他們不喜歡機器可以成為的想法比他們更聰明,所以他們只是打破這個根本上有缺陷的想法。
「我非常接近AI的尖端,它嚇壞了我。」
馬斯克指出,AlphaGo及其前任AlphaGo Zero指出,人工智慧比任何人都知道得多,而且改進的速度也是指數級的。
在六到九個月的時間裡,AlphaGo從無法擊敗一名合理的Go球員,然後擊敗一連串當前和前世界冠軍。AlphaGo Zero然後粉碎AlphaGo 100-0。它通過自己學習而學會,並且可以在任何遊戲滿足規則後玩基本遊戲。
「沒有人預測到改善的速度,」馬斯克說。
Musk預計,到明年年底,自動駕駛將基本涵蓋所有駕駛模式,並且比人類駕駛員至少安全100-200%。
「改進的速度真的很戲劇化,但我們必須想出一些辦法來確保數字超級智能的出現與人類共生,我認為這是我們面臨的最大的存在危機,也是最緊迫的一個,「他說。
「人工智慧的危險性比核彈頭的危險性要大得多,而且沒有人會建議我們允許任何人只要他們想要製造核彈頭 - 那將是瘋狂的。
「記住我的話:到目前為止,AI遠比核彈更危險,所以我們為什麼沒有監管,這是瘋了。」
馬斯克相信需要發生的最重要的事情就是奠定創建數字超級智能的框架,如果人類集體決定這是正確的舉措。
「我們已經是一個電子人,因為你的手機和你的電腦是你的延伸......低帶寬(擴展),我認為我們必須建立一個介面 - 我們沒有進化為通信插孔 - 基本上必須有大量的微型電極,能夠從您的大腦中正確讀取,「他解釋說。
「我認為這是最好的結果 - 我希望如此,如果有人有更好的想法,我很樂意聽到它。」
馬斯克先前表示,AI的競賽可能會開始第三次世界大戰。加上他的SpaceX合資企業旨在將人們送入外層空間,馬斯克表示他正在準備另一個黑暗時代將襲擊地球的可能性。
「如果可能會出現另一個黑暗時代,我認為這可能會在某個時候出現......特別是如果出現第三次世界大戰,那麼我們要確保有足夠的人類文明的種子在某處否則將文明帶回來,也許縮短黑暗時代的長度,「馬斯克說。
「一個自我維持的基地......最好在火星上......火星基地比月球基地更有可能存在,我認為火星基地和月球基地可能有助於地球重生,這一點非常重要,在第三次世界大戰之前完成這件事。
「上個世紀我們進行過兩次大規模的世界大戰,三次如果算上冷戰,我認為我們再也不會再次發生世界大戰......這是我們過去的模式。」
稱AI是目前生活中兩件最有壓力的事情之一,Musk說這也是特斯拉模型3的產物,讓他在晚上保持他的身體。
※《柔情史》:展示中國「暗黑」女性
※蘋果的年度供應鏈調查報告關注個人的福祉
TAG:映雪說 |