自動駕駛會導致AI「奇點」後的失控嗎?
汽車AI科技
—關於汽車前沿科技 你關心的都在這裡—
編者有話說
自動駕駛的終極解決方案是強AI,但有遠見的學者都對此表示強烈的擔憂。這是否意味著我們應該在此之前「踩剎車」或者另闢蹊徑?一條風景極佳的道路盡頭是否深淵?最糟糕的預期,很可能來自我們恐懼的源頭——人類從未面對過比自己更聰明的實體。
7月4日,李彥宏在百度AI開發者大會上實現了「吹過的牛B」,L4級自動駕駛商用車阿波龍的商業化量產,成為自動駕駛領域最新的重磅新聞。
同時發布的還有AI晶元「崑崙」,李彥宏也對「崑崙」不惜溢美之詞,聲稱其能在100W的功耗上實現260Tops性能(1Tops=1012次/秒運算)。
可以預見,無論被視為一套系統的自動駕駛技術,還是其中作為「駕駛員」這個關鍵決策角色的AI技術,將以超出公眾想像的速度快速迭代進化。
但隨著自動駕駛技術的逐步成熟和商業化應用,其背後人工智慧技術的快速迭代,也引起更多對未來的擔憂和倫理探討。畢竟在高速行駛的汽車上,一旦面對最糟糕的結果選擇,人類並不信任機器能做出合適的判斷。
推理至上與快速迭代
眾所周知,L4級被視為自動駕駛的一個關鍵節點,AI全面接管駕駛工作,人類對駕駛行為的干預不再是必須而實時的。
崑崙晶元在自動駕駛場景中,最重要的工作就是根據感測器數據,滿足訓練和推斷的需求,根據路況不斷預測未來0.1-10秒的路面局勢變化,這是高等級自動駕駛獨特的能力。
換言之,只有經過訓練的強AI才能獨立處理未知局勢。
例如谷歌的AlphaGo,在CPU之外採用了用於評估局面的4TPU。實際上是卷積神經網路的應用。它的分支有兩個:價值和策略。不必每一步都窮舉到最後,它就能推斷每一步的價值和對最終獲勝的影響。
按照谷歌首席工程師的說法,在任何一步,AlphaGo都會準確預測如何能贏。
這不是在跳大神,而是自我監督下的AI展現出強大的推理和預測能力。如果採用雲端演算法,很可能實現強AI。
僅僅過了一年時間,戰勝過李世石和柯潔的AlphaGo,已經沒有任何一個活著的人類可以匹敵了。它擁有40層神經網路和「足夠視野的前瞻性」,能夠看到未來的危險和價值,並採取最優策略。
儘管因為應用場景只局限於園區等固定區域,阿波龍的L4級自動駕駛仍有爭議,但在開放道路上的L4級自動駕駛,強化AI是其中最可能的途徑。它可以避免優步在今年早些時候、在鳳凰城路測發生的悲劇。
此前,在量產車上搭載的行車電腦ECU(包含微處理器、外圍電路、存儲器和介面等)可以做之前人類才能做的事。
在它的指揮下,自動變速箱通過液力變矩器調整傳動比,輕鬆換擋。而轉向機構則會感知方向盤的動作,產生助力。在高速行駛中遇到變道行駛或側風、路面傾斜等外部干擾時,駕駛人可以自如操縱方向。低速轉彎時前後輪轉動方向相反,可以輕鬆通過以前需要多次轉彎才能通過的小彎。
儘管現在ECU能做這麼聰明的事,但它仍然不被看做AI。因為真正的AI核心在於推理能力,這一點也正以肉眼可見的速度飛快迭代和進化,就像AlphaGo每晚與自己對弈數百萬盤,而人類通常在睡大覺。
如何滿足不知滿足的人類呢?AI需要超越現有人類認知水平和能力,如同圍棋比賽中那樣,被驚倒的人們自然將王冠奉上,並日益依賴更聰明的AI。
通用AI的再進化
如果計算機有情感,它會發現人類的推理能力實在是弱爆了。邏輯的層級和旁路拓展多到一定地步,人類就無法記住眾多的信息和它們彼此的關聯,更別提放在一起分析了。
但人類也有AI無法企及的地方,人類的直覺值得肅然起敬,並善於將複雜問題簡化,然後用直觀判斷的方式直趨答案。隱藏的信息是否足以支持做出精準的判斷?雖然不總是正確,但這樣耗費的時間和精力都是可接受的。我們放棄了一些表象,捕捉隱含信息(學術上稱為「次表徵」),從而追求更快地解決問題。
人們期待計算機的「思考」方式能夠模擬大腦結構。但是,無論谷歌的TPU,還是百度的崑崙,都只能針對限定輸入給出結論。
如果圍棋的棋盤變成20×19,人類棋手穩贏,而AlphaGo則可能不知所措。如果道路標線模糊不清,AI可能選擇讓汽車停下來,而人類駕駛員則可以大致「循跡」行駛,基本不受影響。
那麼如何讓計算機看起來不那麼蠢呢?
人類需要的是「通用AI(General AI)」,可以下棋、聊天、認識朋友、開車。人類可能很難猜到它下一步將會如何,就像很難洞察另一個人類一樣。但它的行為,按照人類行為準則,一定是明智、合理的。
這樣的AI必然立足於「機器學習」。本地演算法無法涵蓋所有路況,設計者必須賦予無人駕駛系統一定的自主權,避免在特殊路況下該系統不知所措。和人類一樣,計算機仍然要先搜集大量數據樣本,也就是各種路況下的駕駛行為,就像人類也需要反覆練習駕駛技能,鍛煉預見性和形成固定的肌肉記憶。
機器學習,實際上是將人類學習過程「外化」。選擇合適的模型,讓模型學習樣本,從而找出數據的內在規律,從而形成對未知路況的「經驗」。
面對複雜外界條件,AI仍然需要基本的預設應對策略。在人類無法釐清複雜的因果關係時,不需要也無法為AI設立先決條件和成熟策略。事實證明,機器學習,更善於從海量數據中抽象出若干有價值的因素,同時確定因素之間的相關性。從而確立應對策略。
比如,在城市快速路上行駛的駕駛員,主觀上對突然出現的行人缺乏預期,因為法律上禁止行人穿行。AI也同樣很難從樣本中學到,如何在封閉道路上應對突然出現的障礙。
這也就是「逾規則」狀態下的應對能力。理論上,自動駕駛系統的感測器(比如激光雷達)可以比人類駕駛員更早地發現違規行人,即環境感知。
假設行人採取不明智的做法,如加速奔跑、快速從車前穿行等。人類駕駛員如果發現剎車距離不夠,將面臨兩難,如果直接將剎車踩到底,有很大概率發生碰撞;如果一邊變線一邊剎車,很可能與同向車輛發生碰撞,引發更嚴重的事故。而觀察相鄰車道的情況則導致更多的時間延遲,這種情況下,人類很難做出最佳選擇。
AI系統則會對行人行為模式建立模型,根據其肢體動作,預估其下一步的位置,同時收集相鄰車道和交通標誌線信息。在20ms內計算出,多少轉向力度和剎車力,才能保證自身安全和避免碰撞,即決策協同。
最後的動作,則驅動車輛完全實現此前的計算,即控制執行。
其中的核心在於預估對方的行為。只有「強AI」才有可能做到這一點。賦權不夠或者學習能力不足的本地計算機,將無法勝任。這也是未來的無人駕駛系統必然是「強AI」的原因,雖然這個概念備受爭議。
未知導致恐懼
但由此帶來的問題是,在汽車自動駕駛這個關於人類生命安全的應用場景中,如果交通網路完全由無人駕駛車輛組成,AI本身將形成另一套交通規則,無須而且排斥人類的參與。
比如,人類駕駛車輛在時速120公里時,通常要保持100米以上間距。而無人駕駛車輛則可以形成緊密的車隊,以減少風阻,間距可以減少到數米,時速則可以提升到200公里以上。同時,一輛車所見的場景,也會被其他車輛所見。它們的感官由於高速通訊而得到延伸。
這樣的強AI應用場景一旦實現,人類將陷入更深的擔憂。因為其強大的學習能力,自我進化速度極快,很可能產生自我意識,不願意被人類束縛。而人類對其思維和執行缺乏預見,一旦失控,相比於人類駕駛的場景,後果更加是災難性的。
無知導致恐懼,即便可以執行完全無害的任務,也會因為不可預知性而讓人類害怕。因為強AI的決策過程,基本上是個「黑盒子」。
馬斯克和今年去世的霍金都曾發出嚴厲警告,強AI實現之日,被稱為「奇點」,可能會導致凱文·凱利所稱的「失控」。
馬斯克還舉過一個例子,「比如你創建了一個可以自我完善的AI來摘草莓,這個AI可以幹得越來越好,摘得越來越多。不過,這個系統想做的事情就是摘草莓,所以它可能會把全世界都變成草莓園,永遠都是草莓園。」
這也是被視為科學前瞻的科幻小說中,幾乎永遠對人工智慧表達出憂患意識甚至末日情緒的根本來源。
但在現實中,面對AI可能的自我意識覺醒,拉里·佩奇表示並不擔心,他認為AI的善惡取決於創造者,眼下的科技公司們仍然普遍致力於增強型AI的研究。
毫無疑問,自動駕駛的終極解決方案是強AI,但有遠見的學者都對此表示強烈的擔憂。這是否意味著我們應該在此之前「踩剎車」或者另闢蹊徑?一條風景極佳的道路盡頭是否深淵?
最糟糕的預期,很可能來自我們恐懼的源頭——人類從未面對過比自己更聰明的實體。
從上帝視角來看,我們是否正不遺餘力地奔向懸崖?強AI能解決自動駕駛場景的誘惑,讓我們無暇顧忌可怕的後果。實在不行,拔掉電源插頭總可以吧?
基於過去的經驗,沒有任何一台機器可以在人類理智時作亂。但眼見著AI一天比一天強大,它在解決困擾人類上百年的交通問題的時候,會不會帶來一系列更大的麻煩?
至少眼下,沒人能回答這個問題。無論承認或者否認,都無法預測AI的進化速度是否始終受控。
(來源:秋鳳空間)
如果你想知道最新汽車資訊
如果你想成為汽車達人
那麼
等什麼
快來關注
汽車AI科技
※自動駕駛真的離你那麼遠嗎?其實一開始你就錯了
※通用汽車向Cruise投資33億美元 研發無人駕駛汽車技術 12萬用戶追討小鳴單車押金
TAG:汽車AI科技 |