機器人,英偉達的下一場革命
很多遊戲粉絲聽說英偉達發了新卡,激動得去搜索相關的新聞,可看來看去,發布會上把「十年來最重要創新」、「全球首款光線追蹤 GPU」掛在嘴邊的老黃卻沒怎麼提起新品在遊戲上的應用。遊戲粉絲有些失望,核彈還是那個核彈,皮衣也還是那件皮衣,但發布會上屢屢提起、演示的關鍵詞卻並不是他們熟悉的 3A 大作了。
類似的情況也出現在顯卡測評的視頻里,當一位 up 主通過機器學習的訓練效果來講解 NVIDIA Titan V 顯卡的性能時,彈幕上馬上刷起了「聽不懂」、「在說啥」的聲音。
遊戲粉絲們也許不是很買賬,但對英偉達而言,人工智慧卻是這家以圖形和計算起家的半導體公司遇上的最好機會。在深度學習井噴式爆發的那幾年,擅長向量和矩陣運算的英偉達 GPU 被許多學者、研究員用來進行研究和訓練自己的演算法模型,甚至 Google Brain 和吳恩達這樣頂級的人工智慧研究團隊和科學家也在使用英偉達的設備,久而久之,英偉達也將自己的注意力轉移到了深度學習這一剛剛在產業里興起的領域。
「不夠,還不夠智能」
幾年下來,英偉達在人工智慧領域有了自己的積累,它開始有了新的判斷,專註於底層算力的英偉達開始思考上層應用的方向。
「人工智慧的第一階段,是開發自動化編程的軟體。第二階段,是將軟體應用於行業的自動化,這種自動化帶來的效率提升會刺激原有的市場。」在今年的台北電腦展上,黃仁勛把人工智慧的發展分為了三個階段,「第三階段,是 AI 走出計算機,影響外部的世界。」
依黃仁勛的定義,目前我們已經處於人工智慧發展的第二階段,即人工智慧開始初步應用於各行各業。
比如工廠里的人機協作,大型機械很容易在使用時誤傷到人,但如果給這些設備裝上感測器,檢測身邊是否有人,實時作出是否要減速的判斷,在使用時就會安全許多。
再比如傳統的拆垛、堆垛設備,只要給設備加一個深度感測器,它就能判斷出箱子的大小位置和重心,這時機器就能夠判斷出最佳操作位置,從而以最快的速度完成操作。
還有超市商場里,每天營業員都會在關門後花數個小時的時間整理、統計當天所剩貨品,現在市面上已經有能夠完成點貨和理貨功能的機器人,這些設備能給店家省下不少的人力。
這些都是時下已經投入使用的一些智能機器,但在英偉達高級軟體經理李銘博士看來,「這些智能是遠遠不夠的」。
「加一點智能進去,解決當前場景最急需的問題,看起來是個智能機械,但其實它對整個機器人本身的促進並沒有想像中那麼大。」
李銘博士認為,這些智能機器人普遍存在著一些問題:
第二,具體到場景里,單個機械在應用時還需要單獨的調試。以工業機器人的機械臂為例,在工廠里需要為車床量身調試,設置具體操作參數,比如距離產線的距離,50cm 還是 60cm,10cm± 的誤差在生產線上是絕對不允許的。
第三,面對環境的變化適應性差,比如工廠里的光線發生變化,比如室外可能會發生的各種意外,現有的機器人是無法應對的。
第四,軟體更新,當功能有增加或者修改時,需要做很多額外的工作,比如改變程序的邏輯,甚至重新編程等等。
如前面黃仁勛提到人工智慧的三個階段,智能從軟體開始,機器人從完成固定程序動作的普通機械,到今天「有一點點智能」的機器人,依賴的正是人工智慧在各自行業的初步應用。所以要解決以上這些智能機器的問題,還需要回到軟體的層面,回到人工智慧身上。
機器該怎麼學習?
人工智慧的發展「越來越抽象,越來越複雜」。從早期簡單的是與否的判斷,到後來精準的識別,可以在複雜的場景里找出特定的目標,再到後來,出現 AlphaGo 這樣可以做出主動的決策的 AI,甚至智能如 AlphaGo Zero,可以完全依靠「自學」實現快速成長。可以看到,軟體的智能水平是領先於我們常見的硬體智能的。
那麼,人工智慧在硬體上的部署遇到了哪些困難呢?
首先是計算力。硬體,尤其移動機器人上能夠搭載的計算力非常有限,這與 AlphaGo 這樣傾全公司算力訓練出來的 AI 不同。
人工智慧經過這麼長時間的發展,在網路的種類、複雜程度和處理的信息量上都發生了天翻地覆的變化。網路種類上,從早期的 AlexNet 和 GoogleNet 到現在各種各樣的 GAN(生成對抗網路)以及各種深度強化學習的網路,它們各自網路結構都有不同,開發者在適應最新的網路上常常會遇到一些麻煩。
網路變得越來越複雜,處理的信息量也在成倍地增長,算力需求越來越高的情況下,對搭載處理單元的體積有更多限制的機器人實際上存在著在智能水平上升級的障礙。
其次是訓練環境。對於 AlphaGo、DeepMind,科學家們可以設定一個基本規則,讓它永遠跑在計算機里,不停地訓練,技巧磨鍊得越來越強大,但機器人的訓練卻遠遠沒有這麼簡單。
在去年的 GTC 大會上,黃仁勛展示了加州大學伯克利分校的 AI 實驗室所做的曲棍球機器人實驗,在一個僅一米左右的直線上,伯克利的曲棍球機器人「艾達」足足試了 200 次才熟練地掌握了將球打入門框的技巧。
「這還只是曲棍球!」黃仁勛說道,「如果我想抬起一輛汽車呢?如果我想開門呢?如果我想讓機器人和醫生配合做手術呢?」
「我們不可能讓機器這麼學習。」
這裡,英偉達高級軟體經理李銘博士指出,在使用深度強化學習對機器人進行訓練時,有三個主要的障礙。
第二,訓練的部分非常危險,可能會造成一定程度的損失。機器人在訓練時是直接與物理世界交互的,任何的碰撞都可能會導致機體的損傷,甚至可能會對訓練的「陪護」人員造成傷害。
第三,訓練環境的搭建非常耗時耗力。以自動駕駛為例,如果要訓練汽車在面對前面汽車追尾時的表現,連日常生活中的數據都很難收集,更不要說搭建起類似的場景了。
NVIDIA 的答案
在今年台北電腦展的發布會上,英偉達發布了 NVIDIA Isaac 機器人平台,包含硬體、軟體和虛擬世界機器人模擬器的 NVIDIA Isaac。
同樣在這場發布會上,黃仁勛還發布了「世界首台專為機器人打造的處理器」NVIDIA Jetson Xavier,他手托著這台沒有巴掌大的計算機,面對媒體說道:「這就是未來智能機器人的『大腦』。」
Jetson Xavier 擁有超過 90 億個晶體管,可提供每秒 30 萬億次操作以上的性能,這一處理能力甚至比高性能的工作站還要強大。同時,Xavier 擁有 6 個高性能處理器,包括 1 個 Volta Tensor Core GPU、1 個 8 核 ARM64 CPU、2 個 NVDLA 深度學習加速器、1 個圖像處理器、1 個視覺處理器和 1 個視頻處理器。超高的計算能力讓可以直接部署在終端機器人上的 Jetson Xavier 能夠為機器人的感知和計算提供基礎算力的保障。
軟體上,Jetson Xavier 配備了一個工具箱,包含 API 工具包 Isaac SDK、智能機器加速應用 Isaac IMX 以及高度逼真的虛擬模擬環境 Isaac Sim。
英偉達在 2017 年的 GTC 上首次發布了 Isaac 虛擬模擬環境的部分。只需要普通遊戲引擎,開發者們就可以打造出一個非常模擬的虛擬環境,在這個 VR 世界裡,開發者可以在其算力支持的條件下,對機器進行儘可能多、儘可能快的訓練,訓練完成後,機器可以直接部署到機器人上,完成物理世界裡的測試。這樣一來就解決了訓練環境的諸多問題。
在英偉達看來,機器人終歸是要擁有超強的邊緣計算能力的,而目前遠遠超越現階段機器人應用需求的 Jetson Xavier,正是為了下一代自主機器打造的 AI 計算晶元,在 Isaac 平台的支持下,機器無處不在地助力我們日常生活工作,提高整個社會的效率,終將在不久後成為現實。
※從智能語音助手到智慧識屏,vivo 如何將 NEX的Jovi 打造成手機上最貼心的「AI 助理」?
※搶在銀行前面跑出萬億市場,做跨境支付的 Airwallex 說自己沒有競爭對手
TAG:極客公園 |