當前位置:
首頁 > 最新 > 自動駕駛正在接近人工智慧的天花板

自動駕駛正在接近人工智慧的天花板

By Russell Brandom From The Verge

如果你相信那些CEO們,你可能就會認為全自動駕駛會在幾個月後就可以正式上路了。在2015年的時候,埃隆馬斯克預測2018年特斯拉可以實現全自動駕駛,谷歌也這麼認為。Delphi和MobileEye的四級自動駕駛系統定於2019年上市,而通用汽車也打算明年在新加坡部署上千台無人駕駛計程車。通用考慮的無人駕駛車輛將在明年開始生產,這車沒有方向盤。這些預測的背後倒都是實實在在的真金白銀在投入,這些資本都在打賭軟體的發展能夠趕得上他們的預測或是炒作。

表面上看,全自動駕駛的確是越來越近了。Waymo在亞利桑那州已經開始在限制區域內開始車輛測試運行。特斯拉和他們的跟隨者已經在銷售有限功能的自動駕駛了,不過他們還得依賴司機在關鍵的時候能接手車輛駕駛。不幸的是還是引起了多次事故,甚至造成傷亡。但是只要系統還在不斷進化,很可能不需要司機干預的時候很快就來了。

但是,對完全自動駕駛的汽車的想像或期待可能比現實要要遠一些。有越來越多的人工智慧專家覺得可能還得幾年,當然不會太長時間,自動駕駛系統才會完全可靠的實現避免事故的發生。當自我訓練的人工智慧系統在面對混亂的真實世界時,那些人工智慧專家像紐約大學的加里馬庫斯不得不進行一場艱難的調整,這種調整目前被稱作「人工智慧的冬天」。這個調整可能會給那些對自動駕駛寄予厚望的公司帶來嚴重的打擊,可能會使一代人都無法及時應用到。

我們可以很容易理解為什麼這些公司對自動駕駛如此樂觀。在過去的十年時間裡,深度學習——一種利用分層機器學習演算法從海量數據中提取結構化信息的方法——在人工智慧和科技行業取得了不可想像的成就。這種方法驅動著谷歌的搜索,Facebook的新聞流,語音轉文字的演算法,還有Go-playing的遊戲系統。在網路之外的現實世界中,我們利用深度學習監測地震,預測心臟病,攝像機識別可疑現象,等等無數種原來不可想像的創新。

但是深度學習要求巨大的訓練數據才能做得比較好,這樣包括演算法可能會遇到的所有真實場景。舉個例子,像谷歌的Images在識別動物的時候做得很好,只要給他足夠多的動物照片數據就可以了。馬庫斯把這種工作稱為「插值」,就是給系統足夠多的帶有標記的豹貓照片學習,然後再給一張豹貓的新照片時可以被識別。

工程師可以在資料庫的來源和架構上面製造創新,但對演算法最後能實現的程度是有限制的。演算法除非見到過很多的豹貓圖片,否則是無法識別出來的。即使演算法見過很多家貓或者獵豹的圖片,也不行。雖然可能知道豹貓某種程度很像這兩個東西。這個過程就叫做「泛化」,這需要一種不同的技能。

很長一段時間內,科研人員認為他們能夠利用輕度演算法來改善泛化技能,但是最新的研究發現傳統的深度學習在泛化的過程中比我們想像的要更糟糕。一項研究發現,傳統深度學習系統在一個視頻的不同幀之間的泛化做的很糟糕,系統把同一隻北極熊標記為狒狒,貓鼬,或黃鼠狼,其原因主要是因為背景的不同。每一種分類都基於數百個因素,即使是很小的圖片變化也會完全改變系統的判斷。

馬庫斯說最近有關語音機器人的狂熱實際上是另一個存有泛化問題的案例。他說:「之前我們聽到說在2015年就會有聊天機器人出現,但是這東西的表現並不好,而且不僅僅是因為語音數據的搜集問題。」當你在線和一個人聊天的時候,你不會希望聽到他們重複之前的話,你希望的是他能對你說的話做出回應,這要求他們要擁有更寬泛的聊天技能來為你提供獨特的答覆。深度學習目前還做不到。而一旦這種剛開始的炒作開始褪色之後,公司在他們的聊天機器人項目上就會失去信心,這將會對實際的發展造成打擊。

這裡就給特斯拉和追隨者們留下一個大大的問號:在圖像識別,聲音識別以及其他人工智慧的領域,自動駕駛汽車真的在變得更好嗎?他們是否也像語音機器人一樣遇到了泛化的問題呢?自動駕駛到底是插值問題還是泛化問題?駕駛到底可不可預測行為?

現在下結論還太早。「無人駕駛汽車像一個科學實驗一樣,我們並不知道結果。」馬庫斯說到。以前我們也不知道自動駕駛可以做到現在這個樣子,現在自動駕駛識別那些熟悉的物體,循規蹈矩的駕駛,其實做的已經很好了。但是馬庫斯還是擔心要達到行業或公眾能夠認可的安全自動駕駛水平,如果事故頻發的話這可不是好消息。「現在看起來很多驚奇的事情正在發生,但從深度學習的角度來說這不一定是好事。」

我們先來看幾個事故,這幾個事故背後都反應了不同的情況。2016年,一個Model S全速追尾一輛白色的拖車,因為拖車的高度和太陽的反光,造成了自動駕駛的誤判。在今年三月,Uber的一輛自動駕駛汽車在路上撞死了一名推著自行車要過馬路的婦女。按照NTSB的報告,Uber沒有能有效的識別出這個婦女的形象。在今年加州的一次車禍中,Model X加速撞上了分路樁,原因還不明朗。

每一次車禍的發生看起來都是有獨特的情景的,這些靠工程師的想像是無法做到的。如果沒有泛化的處理能力,自動駕駛汽車就不得不頻繁遭遇這種新的場景,引發連串的意外事故,而且也不會得到改善。現在對自動駕駛發展的懷疑,主要是認為場景時時變換,而進步看起來走入了一個瓶頸。

Drive AI的創始人Andrew Ng,百度的前高管也是這個行業的著名支持者,他的觀點是自動駕駛的問題並不主要在系統有多完美,而是從第三方旁觀者的角度想一些辦法。換句話就是說,要讓道路變得更安全更利於行車而不僅僅去全力應付那些可怕的場景。用一個不可預測的場景例子,我問他是否他認為現代的系統應該能夠處理踩著彈簧桿的行人,即使系統之前沒有識別過這樣的景象。「我想大多數的自動駕駛團隊是能夠應付這樣的事情,但要在人行橫道上。」Ng告訴我,「必須要說的是,如果這個人在高速公路上彈跳彈簧桿,那什麼時候都是危險的。」

「當然,我們會去想辦法處理這種事情。但我覺得更重要的是我們應該和政府合作去教育人們去守法以及對自動駕駛有所認識。」他繼續說,「安全不僅僅關乎於人工智慧技術本身。」

深度學習不是唯一的人工智慧技術,那些公司都在探索其他的選項。雖然技術目前還都是保密階段(看一下Waymo最近起訴Uber就知道),許多公司已經轉向基於規則的人工智慧,這是一種較老的技術,可以讓工程師將特定的行為或邏輯硬編碼到一個自我導向的系統中。這種轉向不具備通過研究數據來修正自己行為的能力(這項能力是深度學習才具備的),但這會讓這些企業免受深度學習的限制。不過,令人擔心的是深度學習技術還深刻的影響著整個系統的設計,很難說工程師們就能從設計的角度有效隔離深度學習的錯誤影響。

在Lyft董事會任職的風險投資人Ann Mirra-Ko說,她認為部分問題在於對自動駕駛汽車本身的高期望,全自動駕駛要比泛化問題更失敗。「期望他們能從零直接進入五級自動駕駛本身就太激進,這期望比技術本身的失敗要更讓人憂慮。」Miura-Ko說到,「我更願意看到的是在通往全自動駕駛的每一個微小的進步。」

現在仍然不確定自動駕駛汽車在現在的技術平台上呆多久才能突破。半自動駕駛產品,像特斯拉的AutoPilot已經足夠應付大部分場景了,但讓然需要在一些不可預知的事情發生時人工介入。當有些事情發生了,很難確定到底是車還是人犯的錯。就一些批評者來說,這種人機組合還不如人類駕駛員,雖然他們也不能說這些事情就是因為一定是機器犯的錯。一項Rand公司的研究說自動駕駛汽車必須要實現2.75億英里無致死事件發生,以證明自動駕駛和人類駕駛員一樣或更加安全。但特斯拉的AP應用下的第一個致死事件發生在1.3一英里時,這還遠沒有達到目標。

但是隨著深度學習站絕了汽車感知、決策響應的位置,可能事故改善的能力要比看起來更困難了。「要做到和深度學習孤立開來是很難的,」杜克大學的教授Mary Cummings,針對Uber的那場車禍時指出,「感知決策的循環周期是連續性的,在行人致死事件中,什麼都不做的決定是建立在感知模糊上的,緊急剎車的關閉時因為他感知到了太多的來自感應設備的錯誤。」

那場車禍終結了Uber今年夏天繼續推進他們在自動駕駛上的努力,而對於其他想急於推出自動駕駛的公司來說可不是好消息。縱觀整個行業,公司在解決問題上爭著搜集更多的數據,他們認為擁有更多的行駛里程能夠建立最強的系統。但是當公司們看到數據缺少的問題時,馬庫斯看到的卻是另一番景象。「他們只是在使用那種他們認為有效的技術,他們的優勢都在大數據的積累上,因此他們都想充分的挖掘,但是畢竟還沒有證據表明這個能夠達到我們預期的那種自動駕駛的精確度。」


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 昨日美股 的精彩文章:

特斯拉大空頭Mark Spiegel的最新投資者信
特斯拉的大「帳篷」是怎麼回事?

TAG:昨日美股 |