人工智慧不可能超越人類,原因居然是這樣的…
多樣性vs.奇點
Goldberg說,大部分恐懼主要源於奇點,屆時AI和機器人將超越人類智能。與其擔心遙不可及的奇點,他建議我們多關注多樣性,即人與機器人協作解決問題及創新。
搜索引擎,社交媒體平台的後端,以及電影觀眾,購物者和度假者的許多應用程序已經出現了多樣性。當我們與AI支持的服務交互時,每次點擊或查看都會發出一個關於我們的興趣,喜好和意圖的信號。獎勵?更好的結果與我們的偏好一致,並更好地預測我們接下來可能要做的事情。這是一個相互依存的關係。每個人都需要改善。而且互動越多樣化,他們(我們)就變得越全面。
從研究到現實世界
從實驗室到AI在現實世界中的應用,多樣性是非常重要的。另一位致力於將人工智慧帶到工業世界的專家,也強調人類和機器共同工作的重要性。
Pieter Abbeel表示,「這是挑戰的一部分。人類如何能夠利用這項技術,並利用它來使自己變得更加智能,而不僅僅是將這些機器與我們分開?當機器是我們日常生活的一部分時,我們可以利用自己的力量來提高自己的生產力,這真是令人興奮。」 (2010年, Abbeel的研究團隊發布了一個機器人摺疊洗衣機的視頻時,每個人都非常興奮)。
Abbeel是加州大學伯克利分校機器人深度強化學習的先驅,電機工程和計算機科學系教授,也是機器人學習實驗室主任。2011年,他登上了《麻省理工科技評論》評選的全球35位35歲以下創新者榜單。Abbeel是Embodied Intelligence的總裁兼首席科學家,這是他最近在加州埃默里維爾(Emeryville)聯合創辦的一家創業公司,該公司正在開發人工智慧軟體,可以讓機器人自己學習新的技能。
他也對AI的前景感到興奮,但認為需要謹慎。
Abbeel表示,「我認為AI領域有很大的進步,因此感到非常興奮。關於恐懼,我認為應該記住,像語音識別、機器翻譯和識別圖像內容等最突出進展的例子就是所謂的監督學習,」
Abbeel說,理解正在構建的不同類型的AI是很重要的。在機器學習中,有三種主要類型的學習:監督學習,無監督學習和強化學習。
他解釋道,「監督學習只是模式識別。從語音到文本,或者從一種語言到另一種語言的轉換,這是一個非常困難的模式識別。用英語告訴它一些東西,它會告訴你中文是什麼。跟它說幾句話,它會將其轉換成文字序列。這只是模式匹配。你給它輸入圖像和標籤等數據,它將學習你從圖像得到標籤的方式。」
Abbeel 還指出,「無監督學習是你只給它輸入圖像,而沒有標籤。你希望從看到很多圖像開始了解這個世界趨向於什麼樣子,然後通過建立這種理解,也許在將來它可以更快地學習其他東西。無監督學習沒有任務,只是給它提供大量的數據(就像Google用很多貓做的那樣)。」
「還有強化學習,這是非常不同的,更有趣的,但更難(強化學習是自動駕駛汽車技術進步的保證)。當你給你的系統一個目標,它可能是電子遊戲中的高分,或者贏得一盤棋,或者兩個部分組合,這就是一些恐懼可以證明的地方。如果AI得到的是錯誤的目標,會發生什麼?目標應該是什麼?」
這就是為什麼人類和人工智慧不會在真空中進化的重要原因。當我們構建更智能的機器時,我們的人類能力將得到增強。
Abbeel表示,「讓我非常興奮的是,我們在Embodied Intelligence的最近研究成果表明,AI已經能理解他們看到的圖片。不是人類層面的理解,但相當好。如果計算機能真正理解圖像中的內容,或許它可以拿起兩件物品並將他們組裝在一起。或者它可以通過包裝來分類,或從貨架上挑選東西。在我看來,在不久的將來,一個巨大的變化是依賴理解相機的饋送內容來完成任務即將成為現實。」
到底什麼是AI
人工智慧已經成為一個營銷口號。就像之前的機器人一樣,現在一切似乎都是人工智慧。有時候人工智慧是什麼不是什麼很難界定,甚至連專家都會猶豫不決。正如Brooks指出的那樣,上世紀60年代被認為是人工智慧的課程,現在是計算機編程的第一課,但那不叫AI。
Brooks表示,「某個時候稱為AI的,後來可能又變成了計算機科學。」
機器學習及其所有變體,包括深度學習、強化學習和模仿學習,都是AI的子集。
Goldberg解釋說,「人工智慧在一段時間內是一個非常狹窄的領域,有些人在一套基於搜索的技術方面非常具體。現在人們普遍認為人工智慧是機器人和機器學習的一個總稱,所以現在人們已經把它作為一個整體的子領域。」
計算機視覺的高級形式是AI的一種形式。
Goldberg表示,「如果你只是檢查一個螺釘是否在正確的位置,那麼從上世紀60年代以來我們就已經擁有了這種功能。但與此同時,一個能夠識別工人臉部的計算機視覺系統,我們通常把它想像成AI,這是一個非常複雜的挑戰。」
機器人抓取的深度學習
Goldberg的AUTOLAB專註於人工智慧十多年,將其應用於雲機器人項目,深度強化學習,示範學習以及對倉庫物流,家庭機器人和手術機器人的強大機器人抓取和操縱。
該實驗室的敏捷網路(DEX NET)項目已經表明,通過饋送數以百萬計的3D對象模型、圖像,以及它們掌握的深度學習神經網路的度量標準,AI可以幫助機器人學習不同大小和形狀的物體。以前,機器人可以通過反覆練習學習如何掌握和操作不同的物體,這是一個非常耗時的過程。利用合成點雲代替物理對象訓練神經網路識別魯棒抓取,最新迭代的DEX網路效率更高,達到99%的精確抓取率。
據了解,ABB的YuMi機器人可以操縱各種不同類型的物體,包括此前從未見過的,就是在Dex-Bet 2.0的輔助下完成的。神經網路根據先前相似形狀物體的經驗學習如何抓取新物體。
從長遠來看,Goldberg希望開發出高度可靠的機器人,能夠抓住各種剛性物體,如工具、家居用品、包裝物品和工業零件。 他對可以在不同機器人類型上工作的演算法也非常感興趣。這個實驗室的研究是由一些巨頭贊助的,包括谷歌、亞馬遜、豐田、英特爾、歐特克、思科和西門子。
大數據
美國職業橄欖球大聯盟也在使用AI技術,任何觀看過NFL賽事或賽前和賽後節目的人可能已經留意到。隨著2018年超級碗日趨臨近,Brooks提供了另外一個AI的例子,星期天可能會有許多「沙發土豆」。
上世紀90年代後期,卡內基梅隆大學機器人和計算機視覺方面的世界知名研究人員Takeo Kanade共同開發了一個由機器人相機和先進演算法組成的系統,可以在場地周圍以多個角度拍攝運動場,然後無縫集成到動態3D全景中。通過將單獨的鏡頭一起編輯成3D重建,該系統產生一個沉浸式的360度渲染。2001年在超級碗賽上首次亮相後,在EyeVision 360成為超級碗50的談話中,該技術已經取得了重大進展。
Brooks表示,「他們將所有圖像進行實時編輯,並給所有球員建立了一個完整的三位模型,因此你可以在虛擬現實中隨意放大並查看每個人所在的位置。」 這是十年前人工智慧的一個熱門話題。 我們如何獲得三維重建? 現在這是你在電視上看到的東西。
技術不斷進步,現在用於各種體育場館。流暢的演算法使大量的數據緊縮,使多維視頻得以出現在我們眼前。
TAG:電子工程師俱樂部 |