AI 寒冬:炒作不是在退潮,而是在爆裂
作者:Filip Piekniewski是計算機視覺和AI領域的專家,還是Koh Young Technology公司的首席AI科學家。
我上次撰寫的AI寒冬一文在網上迅速傳播開來( 可點擊閱讀:AI 的寒冬將來臨 !),以至於我的AWS實例差點招架不住(該文的閱讀量遠超過了10萬人次)。(雲頭條備註:國內媒體也紛紛翻譯刊發),該文引得許多業內人士在推文上轉載,在hackernews和reddit上引發了激烈討論。從這個經驗證據來看,有一點很清楚:至於AI寒冬是否近在眼前,這是一個非常敏感、發人深思的話題。該文好像使許多人深有觸動。
不管怎樣,我想在這篇後續文章中回應幾個觀點,並解釋幾個誤解。
炒作不是在退潮,而是在爆裂
首先,許多人在引用我寫的那篇文章時都提到了AI炒作在退潮。那根本不是我闡述的觀點。關於AI的炒作依然很熱烈。一些主要的「造勢者」已經變得更安靜了,但就像我在文中解釋的那樣,乍一看,一切依然看上去那麼美。你要洞察造勢的背後,才能看清有沒有裂縫。如果炒作漸漸淡化,那實際上是好事。股市崩盤時,不是每個人都慢慢地開始承認:自己為股票付了過高的價錢,悄無聲息地打道回府。崩盤突如其來地發生,恐慌情緒猛地襲來,每個人都試圖拋售;而同時,同一些人大造聲勢,以便能夠找到接盤俠(即所謂的拉高出貨)。只有在做市商真正找不到買家、造市者找不到現金時才會宣布危機。所以炒作是一個滯後的指標(而且常常滯後嚴重)。我預測,AI領域會是這種情況。自動駕駛汽車造成的每一次死亡事故都會將可能投資於AI的風險投資家(VC)的數量減少一半。對於悄然關閉的每一家AI初創公司來說也是如此。與此同時,那些已經投入巨資的公司會大造聲勢,而私底下試圖變現資產。只有市場上沒有人接盤――這時候種子輪資金早已花光,AI寒冬才變得盡人皆知。
應用是關鍵,就是這麼簡單!
認為AI寒冬並未到來的主要論點是,這一回,AI切實帶來了利潤,而且有真正的應用。OK,是不乏應用。主要用於圖像搜索、語音識別,可能還有監視(即谷歌和Facebook等)。出現了風格遷移(style transfer),無疑會讓Photoshop再次變得很出色。但這些至今都已有3個年頭了。我實際上參加了悉尼舉行的上一次國際機器學習大會(ICML)上的「深度學習應用」分會。說實話,那真是一次讓人索然寡味的分會。
現在談談對AI寒冬的影響,今天AI創造了多少收入實際上並不重要。重要的是人們投入了多少資金,因此他們期望將來獲得多大的回報。如果現實與這些預期不相符,那麼就會出現寒冬。就這麼回事。在這個周期中投入AI的資金數額非常巨大。而這些投入的重點領域是自動駕駛汽車;我所說的自動駕駛並不是指遠程控制或輔以安全駕駛員――只有自動駕駛汽車真正完全自主,這種技術才有經濟效益。巧合的是,這恰恰是我認為實現機會最小的一種應用。
可還有Waymo!
但有讀者說還有Waymo。是指Waymo在未明確的時間段內購買多達60000輛貨車嗎?那又怎麼樣?優步在去年年底訂購了200000輛沃爾沃。我想知道這筆交易後來怎樣。但Waymo測試的是沒有安全駕駛員的自動駕駛汽車!是的,是在菲尼克斯城最安靜、最低速的路段,擁有良好的蜂窩信號接收功能,因而可以不間斷地遠程監控這些汽車。哦順便說一下,車輛速度限制在25英里/小時......長話短說:Waymo甚至可能部署100萬輛用LTE監測的遠程控制汽車。這在自動駕駛汽車方面證明不了什麼,因為這樣的部署會蒙受巨大的損失。很顯然,只要谷歌有錢,就會往這個領域砸錢,而谷歌不可能一直砸錢進去。谷歌自動駕駛汽車項目已存在了10年,我預計它會再運作10年。不過一旦它們研發的車撞死人,也就是項目結束之時。這就是為什麼谷歌極其謹小慎微。
最近深度學習失敗的幾個例子
我的文章在Twitter上引起強烈反響後,出現了幾篇頗引人關注的論文,另外幾篇引起了我的注意:
1. 《CIFAR-10分類器是否可以泛化到CIFAR-10?》(https://arxiv.org/abs/1806.00451):一項研究表明,通過生成一個新的測試集,模型的整體性能會大幅下降。
這表明了眾所周知的數據窺視問題,這個問題不斷被忽略,而且被竭力掩蓋。長話短說:你的分類器要有一個無偏差的性能數字,你的測試數據就只能用一次。但是如果是這樣,每次你設計一個新的分類器,必須用新的數據來測試,你的結果就不再可重現!那是統計學範疇,裡面涉及概率問題。你完全可以拿固定的預留測試集來測試你的模型,結果是百分之百可重現,但它們是有偏差的。你自個作選擇吧。
2. 《語義敵對例子》(https://arxiv.org/abs/1804.00499):前一篇文章表明,即使拿仔細選擇以便酷似原始訓練分布的新樣本來進行測試,模型的穩健性也不是很好;所以,面對來自原始分布之外的樣本,機器學習不具有穩健性也就不足為奇。
3. 《為什麼深度卷積網路泛化到小圖像轉換如此糟糕?》(https://arxiv.org/abs/1805.12177)和《旋轉和轉換就足夠了:用簡單的轉換來愚弄CNN》(https://arxiv.org/abs/1712.02779):很顯然,深度網路的轉換和旋轉不變性被稍稍高估了。實際上,你可以在我之前的(2016年中期)那篇文章中看到一些報告的行為,我當時將一個SOA深度網路運用於我用手機拍攝的幾段視頻。
4. 最後但並非最不重要的是:《愚弄深度神經網路的單個像素攻擊》(https://arxiv.org/abs/1710.08864)。如果你認為未能略微轉換或旋轉或者色調變化已經夠糟糕了,那麼你看到這種攻擊就不會這麼認為了。調整一個像素就足夠了……
這些結合傳統的梯度衍生對抗例子(https://blog.piekniewski.info/2016/08/18/adversarial-red-flag/)完全表明了這些方法有多麼脆弱。
我們離強大的認知還遠得很;在我看來,我們陷入了一種錯誤的範式,因此我們甚至沒有朝著正確的方向前進。
※螞蟻金服:金融級分散式中間件 SOFA 背後的故事
※《雲計算推動中國經濟轉型和創新》:如何利用雲計算加速實現智能製造
TAG:雲頭條 |