人工智慧 or 人工智障?
騰訊科技訊 周日晚間,Uber公司的路側無人車在美國亞利桑那州,撞死一名49歲橫穿馬路的婦女,這是全世界完全自動駕駛汽車第一次發生致人死亡事故,事故引發了輿論和行業震動。
此前,美國《紐約》雜誌曾經發表一篇文章,其中2016年,特斯拉公司一輛電動車的自動駕駛功能造成一名司機死亡,這是全世界自動駕駛第一次致人死亡事故,據報道,勒萬多斯基當時曾經對一群Uber工程師表示:「我們沒有造成第一宗車禍,我很不爽。」(不過他後來否認說過這句話)
在談到自動駕駛汽車安全時,豐田研究所負責人Gill Pratt在接受採訪時曾表達過這麼一個觀點:
對於人類駕駛造成的事故,我們可能會想,「這可能發生在我身上,我也可能犯這樣的錯。」如果是一台機器,我擔心人們並不會因此產生同理心,因為他們只會希望這台機器是完美、不會出錯的。
在Pratt看來,AI系統,特別是基於機器學習的AI系統,並不是十全十美、毫無缺點的。由於通過感測器獲取的外部信息維度太大,汽車會接收以前從未訓練過的信息,我們期望它能夠根據這些信息對周圍環境做出合理認知。
那麼,如何證明自動駕駛汽車需要比人類司機更懂駕駛,才算是足夠好?Pratt 對這個問題的答案也不確定。他說,「在有答案之前,我們必須非常謹慎:不要引入不符合社會預期的技術。」
GIF
訓練過關,才能更好使用
話題衍生,基於機器學習的AI系統,在設計和測試過程中,容易出現系統性故障。原本預想設計成人工智慧的產品,常常會表現出人工智障的特徵。
GIF
目標位置找錯了
GIF
不靈活
GIF
異常情況
GIF
系統錯誤
GIF
真的智障
機器也是個學習的過程,有的學習插,有的學習差,有的學了不會用,如下圖:
機器學習不斷在進步,相信未來,低級錯誤會減少,至少表現的不那麼智障。
而高級錯誤,更有待設計中避免,測試中發現,以及具備一定的容錯能力。
目標設立、代價評估等因素都會影響訓練過程
GIF
訓練滿足目標
機器學習過程,就是不斷接近目標,也經常會因為訓練方法不匹配,導致離目標越來越遠。這個小遊戲可讓你體會這個過程。
TAG:小數據支援小組 |