當前位置:
首頁 > 科技 > 無人駕駛汽車做不到真正無人的原因:人工智慧離不開人

無人駕駛汽車做不到真正無人的原因:人工智慧離不開人

騰訊數碼訊(紅果)據Computerworld網站報道,美國加利福尼亞州的「自動駕駛汽車」新規則突出了對人工智慧的一個明顯誤解。

受過良好教育的公眾都知道無人駕駛技術非常了不起,但它們迄今還無法在沒有駕駛員坐在車內的情況下完全控制汽車。

目前的「安全駕駛員」——坐在駕駛員座位上的人,目的是防止人工智慧出現故障——被淘汰,完全由人工智慧來駕駛汽車只是個時間問題?

加利福尼亞州剛剛批准了不設「安全駕駛員」的自動駕駛汽車牌照,但有一個附加條件:自動駕駛汽車公司必須能夠遠程監控並接管汽車駕駛工作。

這一規則使得加利福尼亞州向已經批准真正無人駕駛汽車的其他州看齊。車內沒有人,或至少駕駛員座位上沒有人,但遠程監控和遠程控制使這一切成為可能,還能確保汽車安全和遵守相關法規。

Computerworld專欄作家麥克·埃爾根(Mike Elgan)設想,自動駕駛汽車公司將有像美國航空航天局那樣的控制室,其中有大量操作員、顯示屏和交通流量數據,數十名工作人員就可以監控數以百輛計的無人駕駛汽車,當汽車出故障或碰到自己無法應對的複雜情況時,隨時接管汽車控制權。

對無人駕駛汽車的遠程監控,也可能在與呼叫中心相似、由眾多「小隔間」組成的辦公場所內完成。

以下是埃爾根所了解的宣布將建設或已經建設了這種控制室的無人駕駛汽車公司:

·Udelv

·日產

·Waymo

·Zoox

·Phantom Auto

·Starsky Robotics

其他無人駕駛汽車公司也將有這樣的控制室嗎?所有公司都必須有。

想想看,當人工智慧不夠智能,不足以應對意外情況時,需要人幫助的不僅僅只是無人駕駛汽車。


人工智慧世界:還需要人

為了彌補人工智慧的不足,企業常常採取幕後的人為干預措施。

這種做法的理念是,人類監督者確信人工智慧運轉良好,並擔任教師角色。當人工智慧失敗時,人的干預是軟體調整的指南。這一啟發式過程的明確目標是,最終人工智慧將能夠在沒有監督的情況下運行。

還記得Facebook M嗎?它是在Facebook Messenger上的一款虛擬助手。這一項目背後的明確目標是,提供一款虛擬助手,可以像人類助手那樣與用戶進行交互。這款「產品」是機器自動化。但現實情況是,大量人類助手在幕後對它進行監督和干預。這些人員還會在人工智慧失敗後對它進行訓練,使人工智慧最終能獨立運行。Facebook設想逐步減少人類對Facebook M的干預,直至它能完全自動運行。

Facebook M能完全自動運行的這一天永遠也不會到來。

Computerworld表示,這種方法的問題似乎是,一旦人類參與到過程中,預期的自我退出就永遠不會出現。

以Facebook M為例,Facebook預計將逐步不需要人類的幫助,但反而不得不取消了整個Facebook M項目。

Facebook對這一項目相當低調,但它可能已經搞清了下述事實:人工智慧現在需要人類幫助,未來可能會無限期地需要人類幫助。

許多其他人工智慧公司和服務的運作方式與此類似,雖然對外宣稱的是人工智慧,但實際情況卻是人工智慧加幕後的人類助手。

在基於人工智慧的服務領域,有大量的人在幕後辛勞地工作,彌補人工智慧與我們期望之間的差距。

那麼,誰在進行這項工作?首先是用戶。

9年來,谷歌一直利用其reCAPTCHA系統對用戶進行身份驗證:用戶被要求證明他們是人。

證明過程涉及真實和虛假的測試,人能識別計算機不能識別的物體。

最初,谷歌利用reCAPTCHA來幫助計算機通過光學字元識別(OCR),識別書籍和以往的《紐約時報》的內容。然後,它幫助谷歌人工智慧系統讀取谷歌街景地圖中的街道地址。

4年前,谷歌把reCAPTCHA打造成一款人工智慧訓練系統。

大多數訓練的目的是識別照片中的物體——可以用於自動駕駛汽車或街景地圖。一種常見的情況是,將包含路牌的照片分隔成正方形,並要求用戶通過點擊包含路牌的每個正方形,來「證明他們是人類」。這裡的實際情況是,谷歌人工智慧在接受訓練,以確切地知道哪部分圖片是路牌(自動駕駛汽車在行駛時必須考慮),哪部分圖片只是「雜訊」,會被導航系統忽略。

但用戶只是業餘(不知情)的人工智慧幫手。專業的人工智慧培訓師和幫手,在上班時間會識別和標註照片中的虛擬和實際物體。他們測試、分析並推薦演算法中的變化。

在任何複雜人工智慧系統的開發中,非預期後果法則都是一個突出因素。下邊是一個過於簡單化的例子:

假設你開發了一款人工智慧機器人,其任務是製作漢堡、用紙包好、放在一個包中,然後交給顧客,最後一項任務是使包與顧客的距離在2英尺以內,使顧客能夠拿住它。

我們來假設一種場景,顧客在房間的另一側,人工智慧機器人會以相當高的速度把包拋給客戶。你會發現,人工智慧機器人準確地完成了任務,但方式與人來完成這一任務有所不同。這裡就要求增添更多規則,使它能以文明的方式完成任務。

這是一個生動而荒謬的例子,但是人工智慧的訓練,似乎涉及無窮無盡的這類修正過程,因為根據人類的定義,人工智慧實際上並不智能。

埃爾根的意思是:一個人的行為如果像人工智慧,會被認為是白痴。或者,我們可能會說一名向顧客拋一袋漢堡包的員工缺乏常識。對於人工智慧來說,常識是不存在的。人工智慧在開發時必須考慮到各種可能的情況。

開發者需要針對每種可能的情況,確定一種符合常識的反應。


為什麼人工智慧將繼續需要人的幫助

埃爾根懷疑自動駕駛汽車公司能最終擺脫遙控室。在可預見的將來,人們將需要對自動駕駛汽車進行監督和遙控。

一個原因是保護汽車免遭破壞,這可能會成為一個真正的問題。據媒體報道,報告的人攻擊或蓄意與自動駕駛汽車相撞的事件正在增加。

我也相信,無論出於何種原因,乘客都可以按下一個按鈕,與控制室中的人通話。

一個原因可能是神經質的乘客:「呃,控制室嗎?,我現在要睡午覺了,你能幫我看下車嗎?」

但最大的原因是這個世界很大,而且複雜多變。奇怪、料想不到的事隨時都會發生:雷擊、飛鳥與相機相撞、小孩子用激光筆照射感測器,即使出現這些情況,自動駕駛汽車也不能崩潰並胡亂動作。它們太危險了。

埃爾根認為,再過數十年,我們才能在人命關天時信任人工智慧。

為什麼我們相信人工智慧是人造和智能的

造成人工智慧具有超能力錯覺的現象被稱作伊萊扎效應(Eliza effect),是麻省理工學院在1966年的一項研究中提出的。利用伊萊扎聊天機器人的測試對象,報告稱他們感受到了計算機的同理心。

目前,伊萊扎效應讓人感覺到人工智慧無所不能,但實際上它的能力是有限的。當我們聽說一台超級計算機在國際象棋比賽中獲勝時,我們會認為:「如果他們能在國際象棋比賽中擊敗聰明人,他們一定比聰明人更聰明。」但這是一種錯覺。事實上,會下國際象棋的機器人,在下國際象棋這件事上比人更「聰明」,但在其他許多事情上,人比那些擅長下國際象棋的計算機更聰明。

自動駕駛汽車可不只是做一件事情,它要做許多事情。這對人來說很容易,但對於人工智慧來說就難於上青天了。

Computerworld稱,我們不能過高估計人工智慧——事實上,人工智慧是驚人和突破性的,並將改變人類生活,通常會使人類生活更美好。

我們一貫低估人類智能,至少在我們的有生之年,在完成以人為中心的任務時,人類仍將遠遠優於計算機。

自動駕駛汽車的發展,完美地表明認為機器能以複雜方式自行運轉的認識是錯誤的。

機器能自行運轉,但離不開我們的幫助。

在沒有足夠的智能來完成任務時,人工智慧需要人的支持。

來源:Computerworld


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 騰訊數碼 的精彩文章:

劉海屏vivo X30真機上手曝光 搭載屏下指紋技術
iOS 12到watchOS 5 今年蘋果還有這些新系統發布

TAG:騰訊數碼 |