當我們談論AI的時候,難道只能是關於「看」和「聽」嗎?
AI近幾年的快速發展離不開深度學習方法的深入研究,而深度學習提升AI能力的最顯著表現,目前來看主要集中在兩個方面:圖像識別和語音識別。
通過對圖像的語義分割,圖像識別技術已經應用得特別廣泛。在手機攝影、拍照購物、刷臉支付等各種領域,圖像識別給我們帶來了極大的便利。同時,基於語音識別的各種語音助手比如智能音箱等,也在悄然描畫智能家居的未來。可以說,單單是在視覺和聽覺這兩個方面的技術突破,AI就已經給世界帶來了巨大改變。
但是,人有五感,除了視覺和聽覺之外,還有非常重要的觸覺。曾經有個人做實驗,看看蒙上眼睛堵上耳朵再綁手腳這人會怎樣,結果差點兒整出精神病。
那麼具體到AI這件事上,僅僅發展其視覺和聽覺技術已經逐步呈現了「瘸腿走路」的特徵。如今,或許是時候討論一下給它加上觸覺這件事了。
視覺和聽覺長板下的觸覺短板
視覺和聽覺技術發展的優點是顯而易見的,其最重要的作用也集中在兩個字上:識別。
為什麼視覺的識別和聽覺的識別技術這麼重要,而且被首先開發出來呢?筆者認為主要有以下幾個方面的原因。
第一,視覺和聽覺是判斷某一個物體特性的基本方法。如何確定一個人是張三而不是李四?首先我們要看他的臉,千人一面這件事兒基本不可能,臉也就成為了一個人區別於他人最顯而易見的特徵。其次,每個人的聲音可以說也是藏在身體里的一道獨特密碼。所以,要讓AI認出人,視覺和聽覺的技術研發就首當其衝了。
第二,識別在現實生活中蘊藏著人類的巨大需求。無論是工作還是學習,亦或是企業的生產,幾乎離不開視聽尤其是視覺技術。比如攝像頭監控到了工業生產流程、鏡頭下的人們的動態,但是如何識別這些海量內容就成為了人們的難題。又如各種場景下物聯網生態的構建,如果沒有視聽,萬物互聯也就成為了無本之源。
第三,視聽技術的突破得益於技術的長期積累。計算機視覺分析早在上個世紀六十年代就已經走進了科學家們的研究視線,而以雞尾酒會為代表的語音識別則是在更早的一九五三年。經過半個多世紀的發展,關於機器視覺和語音識別問題的研究成果已經非常豐富,近年來興起的深度學習方法則助推其進入了一個發展的高潮。
事實上,兩種技術的大規模應用也確實為無論是B端還是C端的用戶都帶來了巨大的便利之處。但是隨著人們對AI應用能力的要求的提高,視覺和聽覺這兩塊長板顯然已經彌補不了觸覺短板帶來的問題。
比如倒水這件事。倒水和接水是有很大區別的。接水只需要給機器定一個出水的量,量滿即止,就不會出現灑溢的問題。而要想機器實現像人一樣倒水,就不是這麼簡單了,它不僅要涉及到視覺觀察水杯在哪兒、是否對準了杯口、水杯是否已經倒滿,還必須要保證拿到的被子不會滑落。那麼,這個時候只依靠視覺識別就不夠了,畢竟機感受杯子會掉這件事觸覺肯定比視覺來得快,不然現實中也就不會有那麼多人會被燙傷了。
由此可見,雖然AI不再是瞎子、聾子,但隨著其不斷長大,觸覺障礙帶來的麻煩恐怕也就會越來越多。
從皮膚到虛擬現實:身處閨中的觸覺模擬
人的皮膚上遍布著觸覺感受器,其將來自外界的溫度、濕度、壓力、疼痛等刺激通過神經傳遞給大腦,然後作出分析和應對,這就是人的觸覺活動的一個基本邏輯。如果一個人的觸覺失靈,最大的危害就是其將無法感受到來自外界的危險,進而無法做出反應。現實中有很多這樣的例子,有人天生痛覺缺失,受傷就成了家常便飯。那麼用到機器人的身上,觸覺的缺失就意味著必須要從其他方面迂迴地為其設計自我保護系統。
那麼,有沒有什麼辦法讓虛擬觸覺成為現實呢?
事實上,研究者們在實驗室里探索虛擬觸覺的腳步一直以來並沒有停止。只是由於觸覺系統的複雜性,比如如何模擬皮膚觸覺感受器對不同刺激的感知等,導致觸覺研究基本上仍然停留在實驗室和論文當中,其在市場上的應用還不夠成熟。關於觸覺的研究,目前來看主要還是通過開發模擬觸覺感受器的感測器,表現在以下幾個方面。
模擬電子皮膚。由於觸覺最直接的是由皮膚感受到的,所以電子皮膚也就成為了觸覺研究者們最青睞的課題。針對複雜的觸覺系統,研究者們同樣是採取了針對不同的刺激類別而研發不同的皮膚感測器,80年代以來,分別研發了專門感應溫度、濕度、力度等各個方面的感測器。
最近,約翰霍普金斯的大學的研究人員們開發出了一種新的電子皮膚,其可以通過感知刺激將衝動傳遞給周圍的神經來重建觸覺。研究者們把電子皮膚套在受試者的指尖,然後將其連接到受試者的身上,測試結果表明,受試者確實能對尖銳物體和圓滑物體表現出疼痛和非疼痛的反應。這說明至少在部分功能上,這種電子皮膚可以稱得上是成功的。只不過它對溫度的感應還不太靈敏,這也是需要改進的地方。
機器手抓舉實驗。在家庭或商業場景下,需要機器人用手去做的事情就很多了。在這方面,也有很多科學家嘗試了不同的實驗內容。
卡梅隆大學的研究人員做了一套fingervision系統,然後將其安裝在了一個機器人的手臂的末端。用來幹嘛呢?剝香蕉皮。
用香蕉來做實驗,其意圖非常明顯了。用力太小,剝不下來;用力過大,估計很多同學都知道把香蕉捏扁後是什麼感覺,我們可以感受一下這個機器人剝香蕉的樣子:
GIF
看起來還是很專業的嘛。該系統的主要功能就是當機器人在抓取東西的時候,其可以通過觸覺來感知物品是否滑動、是否能保持物品的形狀完整性,從而來控制抓取的力。但是同學們可以看到的是,雖然香蕉皮剝下來了,但最後拽那一下……實在是有點暴力啊。
虛擬觸覺。斯坦福大學則做了一個聽起來很勁爆的裝置:wolverine(金剛狼)。它主要用在虛擬現實當中。該裝置看起來十分令人無語:長長的黑色鐵棍,再加幾個金屬片,往手指頭上一戴就完事兒。但看起來雖然簡單,其卻能夠在為手指帶來觸覺上的反饋。比如抓取一個虛擬現實的杯子,鐵棍的滑塊便會扣緊,你就能真切地感受到杯子反饋給你手指的力度。
英國的一家初創公司則試圖在增強現實上做點觸覺的模擬。他們在一隻手寫筆的筆尖附近配備了一個微型設備「音圈驅動器」。這樣如果在平板上選擇「磨砂紙」的書寫場景的時候,該設備就會通過一系列複雜的震動而重現書寫場景的感受。一個小小的觸覺感受器,就可以模擬很多場景。
由此可見,無論是針對現實增強還是虛擬增強,已經有很多人扎進了觸覺模擬的研究當中。那麼,在未來技術成熟的時候,它會給我們帶來哪些進步的可能呢?
集齊了這「三感」,AI更像人了
首先,義肢觸覺的恢復將成為技術應用的重點。
目前而言,義肢的最大作用是幫助人們恢復了部分功能性的能力,或者說,讓人們的身體看起來比較完整。但相較肢體殘缺的不幸,人們最渴望的仍然是能夠恢復肢體的感知功能。那麼,當人造電子皮膚能夠像真人皮膚一樣感知來自外界的不同類型的刺激,其也將能有效地避免因觸覺的缺失而給人們帶來的意外傷害。
其次,模擬觸覺技術的進步也將對虛擬現實為更多人所接受產生有利的影響。比如上文中提到的「金剛狼」,以及為更多人所熟知的VR手套等。如此,虛擬真實將會變得更加真實,玩家的沉浸感也將會更強。並且,在訓練工人比如修車工等方面,其也將有大的永無之地,為企業省下購買實物訓練的成本。
最後,觸覺模擬的成熟也將和AI圖像識別、語音識別一起將AI鋪向更廣更深的領域和層次,進而影響物聯網的發展進程。這裡我們可以開個腦洞:想像一下,以後你坐進車裡,人臉識別認出來是你之後自動啟動車輛,通過語音控制你聽到了自己喜歡的音樂,而座椅通過對你身體的感知自動調整到你最舒服的位置,是不是很爽呢?
當然,到那一步或許我們還差得很遠,但是實現觸覺的智能化很有可能是一個繞不開的課題。當以後的AI集齊了視覺、聽覺之外的觸覺第三感,除了那皮膚包裹俠的密密麻麻的電子元件,還安能辨其是不是AI?
TAG:腦極體 |