當前位置:
首頁 > 知識 > 為什麼說觸覺智能是機器抓握技術的未來

為什麼說觸覺智能是機器抓握技術的未來

作者: Vincent Duchaine


翻譯:付超


審校:心

要讓機器人能夠抓取任何物體,不止需要好視力,還需要更好的觸覺感知能力。



為什麼說觸覺智能是機器抓握技術的未來



(圖片:Robotiq的機器手在使用觸覺智能技術抓取和操作物體)

將一個物體拿起來的作業任務,並不像它看起來的這麼簡單——至少對機器人來說是這樣的。機器人專家一直致力於開發能夠抓取任何東西的機器人,但時至今日大部分機器人只能進行「盲抓」,也就是每次只能重複地從同一個位置抓取同樣的物體。如果任何條件發生了變化,例如物體的形狀、表面肌理或者物體的位置,機器人就會不懂得如何對變化做出響應,抓取的任務很有可能就會失敗。


要讓機器人在第一次嘗試就能完美地抓取任何物體,還有很長的路要走。為什麼抓握物體的任務會成為這樣的難題呢?人類在嘗試抓取物體時,會組合運用各種感知能力,最基礎的就是視覺和觸覺。但直到目前,大部分解決機器人抓握問題的嘗試都只把注意力放在機器人的視覺感知上。


我長期以來都在關注在機器人抓握技術上取得的重要進步。現在我已經傾向於認為,像目前研究那樣只關注機器人的視覺感知能力是不可能完美的解決抓握問題的。除了視覺,機器抓握問題的未來還需要另一種技術:觸覺智能。


只關注視覺是不可能讓機器人達到類似人類的抓握能力,因為雖然視覺在抓取過程中很重要(例如需要確定抓取的目標物體),但只視覺不能告訴你在抓取過程中所需要的所有信息。想想史蒂文.平克教授(Steven Pinker)如何描述人類的觸覺所能完成的壯舉:「假設你要拿起一盒牛奶,如果抓的不夠緊,它就會掉下來,如果抓的太緊,又會把它擠爆;拿起牛奶後輕輕搖晃它,你甚至可以用指尖的觸覺來估測盒子里有多少牛奶!」(引自《意識如何工作》(How the Mind Works)一書)由於機器人缺少這些感知能力,所以即使在如抓取和放置物品這種簡單的事情上也遠遠落後於人類。


我在加拿大蒙特利爾的école de Technologie Supérieure(ETS)學院控制與機器人實驗室(CoRo)領導觸覺與機電一體化研究小組的研究,而且是位於魁北克一家機器人公司Robotiq的合伙人,因此我長期以來都在關注在機器人抓握技術上取得的重要進步。現在我已經傾向於認為,像目前研究那樣只關注機器人的視覺感知能力是不可能完美的解決抓握問題的。除了視覺,機器抓握問題的未來還需要另一種技術:觸覺智能。

先前的研究都只關注視覺,而不是觸覺智能


到目前位置,大部分關於機器人抓握的研究都在基於機器人獲得的視覺反饋嘗試建立人工智慧。其中一種方法就是通過資料庫進行圖像匹配,這種方法被用於布朗大學人類與機器人實驗室(Humans to Robots Lab)的Million Objects Challenge項目中。機器人使用攝像頭來感知目標物體,同時監測自身的動作,以此來嘗試抓取物體。在這一過程中,機器人會將實時的視覺信息與儲存在資料庫中的3D掃描圖像進行比對。一旦找到匹配的圖像信息,機器人就能找出對應當前情況的抓取演算法。


布朗大學的研究方法要旨在於搜集各種不同物體的視覺信息,但研究人員不可能建立一個關於機器人可能遇到的所有物體的龐大資料庫。而且,這種通過資料庫匹配的方法沒有考慮環境的限制,因此機器人無法根據環境的變化採取相應地抓取策略。


還有的研究人員藉助機器學習來改進機器人抓握技術。這些技術可以允許機器人從過去的經驗中學習,最終機器人可以自己找出抓取物體的最佳方法。而且與資料庫匹配的方法不同,機器學習只需要預設極少的先驗知識。這種情況下機器人就不需要藉助一個預製好的圖像資料庫——它們只需要足夠的練習。


正如今年IEEE Spectrum(《科技縱覽》雜誌)報導過的,Google最近進行了一次機器抓握技術的實驗,將視覺系統與機器學習相結合。在過去,研究者試圖通過教會機器人運用人類認為最好的抓取方法來改進機器人的抓握能力。而Google研究的最大突破在於展示了機器人的自學能力——利用深度卷積神經網路(deep convolutional neural network)、視覺系統以及大量的數據(通過80萬次抓取物體的嘗試)——來讓機器人從過去的經驗中學習和改進它們的抓取能力。

實驗的結果似乎帶來了很大希望:由於機器人的行為反應不是預設好的,可以說它們的進步是「在學習中自然出現的」(其中一位研究人員如是說)。但視覺所能反饋給機器人關於抓取的信息也是很有限的,Google可能已經到了這一限制的邊緣。


只關注視覺帶來的一些問題


有三個主要的理由能夠說明為什麼Google和其他人遇到的難題只依靠視覺是難以克服的。首先,視覺本身就有許許多多技術上的限制。即使最高水平的視覺系統,在某些光的條件下(例如半透明、高反射以及低對比度的顏色)或者物體尺寸太薄的情況下,也會發生物體感知的困難。


視覺本身就不適合用於解決這一問題:抓握任務是關於接觸與力學的,在視覺上很難被監控。視覺最多可以告訴機器人什麼樣的手指姿勢最有可能抓取成功,但機器人最終還是需要觸覺上的信息。

第二,很多抓握的任務會遇到很難看清目標物體全貌的情況,因此視覺通常無法提供機器人所需的全部數據。如果一個機器人試圖從桌子上抓取一塊木塊,一個簡單的視覺系統只能探測到木塊的頂面,機器人無法得知木塊的另一面是什麼樣子的。在諸如容器抓取這種更為複雜的任務中,目標物體可能被周圍的物體部分或全部遮蓋住。


最後也是最重要的,視覺本身就不適合用於解決這一問題:抓握任務是關於接觸與力學的,在視覺上很難被監控。視覺最多可以告訴機器人什麼樣的手指姿勢最有可能抓取成功,但機器人最終還是需要觸覺上的信息,這樣才能獲取與抓握任務相關的物理數據。


觸覺智能能帶來什麼幫助


在人類抓握和操作物體時,觸覺扮演著主要角色。失去了雙手的截肢者最大的痛苦根源之一,就是使用假肢時無法感知所碰觸的物體。沒有了觸覺,截肢者在完成抓握和操作任務是,必須給予視覺上極大的關注,而正常人甚至在看不到一個物體時也能輕易地把它拿起。


我們需要的是一種方法,能夠把低等的原始數據轉換為高等的信息,可以讓機器人具有更好的抓握和操作物體的表現。觸覺智能讓機器人通過觸摸識別物體是否要滑出、基於觸覺手勢識別物體來預測抓取物體成功的可能性。(原文大字體加粗)


研究者已經意識到觸覺感應在抓握任務中扮演的關鍵角色,在過去的30年已經出現過很多建立模擬人類器官的觸覺感應器的嘗試。然而,觸覺感應器返回的信號是複雜的、多維度的,而在機器手上增加觸覺感應器通常不能直接增強抓握能力。我們需要的是一種方法,能夠把低等的原始數據轉換為高等的信息,可以讓機器人具有更好的抓握和操作物體的表現。觸覺智能讓機器人通過觸摸識別物體是否要滑出、基於觸覺手勢識別物體來預測抓取物體成功的可能性。


在TES學院的CoRo實驗室,我和同事們正在創建能夠形成新的觸覺智能的代碼。最新取得的進展是使用壓感圖像來預測抓取成功與否的機器學習演算法。這一系統由 Deen Cockburn和Jean-Philippe Roberge開發,是一個可以讓機器人距離人類抓握能力更近一步的系統。人類當然是通過觸覺來學習某個手指姿勢是否能夠進行正確的抓取行動,然後我們調整手指姿勢,直到我們有信心成功地抓取物體。在機器人能夠學習如何調整手指姿勢之前,它們還需要能夠更好地通過觸覺數據來預測抓取的結果。



為什麼說觸覺智能是機器抓握技術的未來



觸覺數據是在嘗試抓取不同種類的日常物品過程中獲取的。這些物體是在亞馬遜2015年的抓握挑戰賽(Amazon Picking Challenge)中發布的物品清單中選取的。


這就是我相信 CoRo實驗室能夠獲得成功的理由。把 Robotiq的機器手與 Universal Robots UR10操作機器人結合起來,增加了若干我們自己建立的多式觸覺感應器,還有一個基於 Kinect設備的視覺系統(只用於定位每個物體的幾何中心),我們建成的機器人可以拿起不同的物體,而且可以根據獲取到的數據進行我學學習。最終,我們成功地創造了準確率高達83%的抓取失敗預測系統。



為什麼說觸覺智能是機器抓握技術的未來



CoRo實驗室的另一個團隊,這次由 Jean-Philippe Roberge領導,專門從事對物體滑出探測的研究。人類可以迅速感受到所抓取的物體要從手中滑出,是因為我們的手指含有反應迅速的機械運動感受機制,我們皮膚中的感受器可以探測到壓力和振動的迅速變化。物體滑出會在我們手的表面產生振動,所以研究者在機器學習演算法中以振動圖像(光譜圖表)取代了壓感圖像。使用與在抓取預測實驗中的同樣配置的機器人,在系統中加入了在物體滑出過程中學習到的振動圖像的特點,現在它可以以92%的準確率識別到物體的滑出。


讓一個機器人意識到物體的滑出似乎很容易,因為滑出的過程就會產生一系列的振動。但如何讓機器人分辨由於物體滑出發生的振動和由於機器人在另一個表面(如桌面)上拖拽物體而發生的振動呢?我們還不能忘記機器人手臂的運動自身也會產生微小的振動。這三種不同的事件會產生相似的信號,但需要機器人採取不同的行動。識別這些不同的事件就是機器學習的意義所在。


從機器學習的層面上說,CoRo實驗室的兩個小組有一個方面是相同的:兩個小組都不會為機器學習演算法加入人工制定的規則。換句話說,由機器人的系統來決定與物體滑出相關的數據(或者預測抓取結果的相關數據,在抓取預測實驗小組中),而不是依靠研究者去猜測相關的數據是什麼。


「高等特性」在過去總是與人工劃等號,這意味著研究人員會為滑出事件(或者好或壞的抓取結果)人為地選擇一些判定特性。例如,他們可能會替機器人預設一些壓感圖像,用以告訴機器人只抓一個物體的尖端很可能會失敗。但讓機器人自我學習會得到更準確的結果,因為研究人員為機器人做出的猜測並不一定總能代表真實情況。


稀疏編碼(sparse coding)在這方面有很大的用處。這是一種無人監管的機器學習演算法,通過創建一種用以代表新獲取數據的「稀疏字典」(sparse dictionary)來實現。首先機器人通過光譜圖表(來自原始的壓感圖像)自我創建這樣的字典作為稀疏編碼演算法的輸入數據。這一演算法輸出的還是這一字典,但輸出的字典由代表高級別特性的數據組成。然後當進行了新的抓取嘗試時,會有新的數據輸入,新輸入的原始數據又會通過這一字典來轉換成新的高級別特性數據,這些高級別的數據被稱為「稀疏向量」(sparse vectors)。最後,這些稀疏向量會根據引起振動的不同事件(或抓取結果的成功與否)而進行分組。



為什麼說觸覺智能是機器抓握技術的未來



CoRo實驗室的各個小組最近正在測試能讓稀疏編碼演算法自動更新的方法,因此每一次新的抓取嘗試都會幫助機器人在預測方面做得更好。我們最終的想法是機器人能夠在抓取的過程中根據這些信息來及時調整它的行為。最後,這項研究是一個很好的例子,展示了觸覺和視覺智能如何協同工作,來幫助機器人學習如何抓取不同的物體。


觸覺智能的未來


這項研究的關鍵不是對視覺智能置之不理。視覺在抓握任務中仍然做出了關鍵的貢獻。然而,人造視覺技術已經發展到了一個特定的水平,因此我們最好把關注點轉移到發展關於觸覺智能的新領域,而不是繼續像以前那樣只強調視覺的作用。


CoRo實驗室的 Roberge將帕累托的80-20定律用於視覺和觸覺智能的發展潛力對比中:現在機器人社群已經掌握了80%的視覺智能技術,而剩下的20%是非常困難的而且對機器人操作物體的任務不會有多大貢獻。在另一方面,機器人專家現在正在開發前80%的觸覺智能技術,這一過程相對容易,而且對機器人抓握能力的提高可以做出可觀的潛在貢獻。


我們距離機器人能通過觸摸來識別物體,甚至讓它自己幫你打掃房間,可能還很遙遠——但當這一天到來時,我們肯定會藉助觸覺智能的力量。


註:本文作者Vincent Duchaine是加拿大蒙特利爾 éTS(école de Technologie Supérieure)學院的教授,他在控制與機器人(CoRo)實驗室領導觸覺與機電一體化研究小組,是ETS可交互機器人研究院主席。Duchaine的研究方向包括機器抓握、觸覺感應以及人機交互。他還是 Robotiq公司的合伙人,這一公司開發靈活的自動化工具,比如文中提到的三指抓取機器手。


請您繼續閱讀更多來自 人工智慧學家 的精彩文章:

人工智慧或將協助阿茲海默症早期診斷
用機器學習探尋分子的變化
通過腦電刺激,不同腦之間的矩陣式技能轉移或成可能
人工智慧正在學習看見世界,但是其方式與人類不同
AI將如何影響中國與西方的關係?從「原子能為和平服務」到「AI為人類服務」

TAG:人工智慧學家 |

您可能感興趣

機器人可能很快就能夠有痛的感覺
這台小巧的機器人能用機器視覺摘草莓 還能看出熟不熟
高顏值呆萌機器人,能聽會說我的智能「陪聊」神器
我們能不能把仿生機器魚也賦予所謂的靈魂呢?
未來智能機器人泡妞會不會特別厲害?
智能 簡單 乾淨 有了這些才能稱作智能掃地機器人
有倫理的機器能給我們帶來什麼
機器人做手術不放心?它可以給醫生傳遞觸覺
讓智能機器人的手變柔軟靈活,甚至還能抓魚
引領我們走向未來科技的杭州,目前有哪些智能機器人?
機器視覺為智能工廠帶來了什麼——工廠的「眼睛」
不要再認為人工智慧就是機器智能了,它們其實是兩個概念!
智能性機器人正在向我們走來!你能接受嗎?
邁向高科技!機器人產業能給我們未來帶來什麼
這些機器人源於自然 始於智能
你會讓機器人給你做手術嗎?用機器人做手術有利也有弊
未來世界 機器可能會幫你做更多決策
機器學習讓機器更智能
為什麼說計算機視覺是機器人的殺手級應用?