當前位置:
首頁 > 最新 > 愚蠢的人工智慧?

愚蠢的人工智慧?

人工智慧計算機能夠識別圖像和語音,像人類一樣擁有自主學習能力,很受大眾追捧。然而,研究人員卻發現,它總是犯一些讓人匪夷所思的錯誤。

在識別圖像時,遇到一種彩色的小斑點,人工智慧就會出現識別錯誤。這種斑點很閃亮,內部雜亂無章,像一個至幻至美的棒棒糖。一個來自谷歌公司的研究團隊發現,在它面前,計算機彷彿被催眠了一樣,失去了自動識別圖像的能力。此時,所有圖像在計算機面前都被誤認為是烤麵包機,無論是一堆香蕉、一間浴室,還是德國總理默克爾。

實驗表明,彩色小斑點正是靠著這種伎倆矇混過關。只要它出現在相機捕捉到的圖像里,無論在什麼位置,都能讓計算機不知不覺中邪。為什麼會這樣?研究人員解釋道,對於人工智慧識別,這個圖案就像一個無法抗拒的誘餌。在這個斑點中,計算機能夠非常輕易地識別出一台烤麵包機。於是,斑點裡的其他圖案就變得無關緊要,直接被計算機忽視了。

計算機這麼容易被欺騙,這確實讓人意想不到。但其實這並非計算機上當受騙的第一例,研究人員早已發現了圖像識別的這一奇怪弱點。他們將數碼相片的像素做了肉眼幾乎不可見的微小調整,計算機就突然把一輛校車識別成了一隻鴕鳥。甚至三維列印的物體也出現過類似情況:一隻三維列印出來的烏龜看起來惟妙惟肖,卻被識別成了一把步槍。一隻愛好和平的爬行動物,怎麼會變成一把用於射擊的武器?然而對此,計算機卻絲毫不感到困擾,反而非常堅信自己的判斷。

人工智慧如何被欺騙?雖然到目前為止,這個問題主要是由相關專家來研究,但操作的方法和手段卻越來越能夠為普通人所輕易掌握。任何人都可以下載並列印這個具有催眠作用的彩色斑點,再加上一些專業知識,就可以繪製出除烤麵包機外其他具有欺騙性的圖案,如三輪車、手雷或者金色倉鼠。研究人員相信,互聯網很快就能為人工智慧計算機調製出種類繁多的致幻劑。對於黑客和惡作劇者來說這極具誘惑力,對於那些倡導反政府監督的人士來說,這也不失為一個良好的對抗手段。比如,將這種圖案貼在額頭上,就無法被監控攝像機辨認出身份,就像貼了一個隱身符咒一樣。可以預見,在未來,監控攝像頭會捕捉到許許多多台「烤麵包機」在街上示威遊行。匹茲堡卡內基? 梅隆大學的研究人員已經開發出了一款帶有這種圖案的可列印眼鏡框,人們可以用它掩蓋自己的真實身份。也就是說,任何人戴上這個鏡框,都能被識別為電影明星拉塞爾? 克勞。

這對於人工智慧未來的發展絕不是件好事。實際上,在過去這些年,自動圖像識別在很多領域都已經發展得很好了。要不是這些奇怪的錯誤,人工智慧幾乎已經能與人腦相媲美。出現這種問題的原因與計算機的學習模式有關——它總是按照既定的模板來尋找圖像。簡單來說,就是每個圖像都應該被歸入一個相應的「 抽屜」里——所有的烏龜在一個,所有的步槍又在另一個。在識別過程中,人工智慧所做的只是猜測。但在每次驗證結果後,計算機都能進一步提升它的識別準確度。經過無數次努力,它顯然學到了一些東西,最終把大部分烏龜都歸入了正確的「抽屜」。

然而,人們很難弄清計算機是如何做出它的判斷的。只有一點可以確定:人眼可識別的很重要的特徵,人工智慧卻往往捕捉不到,如圓圓的龜殼以及彷彿長滿魚鱗的龜腿。否則,它也不會把一隻爬行動物標註成一把步槍。很顯然,它完全沒理解自己所看到的事物。這是目前計算機自主學習方面的最大謎團:為什麼計算機如此擅長學習,卻又如此容易犯錯誤?研究人員不斷尋找計算機的弱點,希望能對此找出一個合理的解釋。目前,這已經成為了一個很興旺的學科。不斷有新的「攻擊」得到測試,每隔幾天都有新的問題被發現。

2013年底,谷歌公司的研究人員宣布,他們對人工智慧計算機進行了第一次成功的「攻擊」。自那以後,研究人員還相繼進行過多次類似的「攻擊」。只是這些「攻擊」針對的都是數碼相片的識別,危害相對較小。然而,研究工作循序漸進,而現實世界卻飛速發展。雖然目前這個問題更多的還只是停留在理論層面上,但是很快這些「攻擊」也會發生在現實世界中。比如交通標誌的篡改,只要有人對停車指示牌稍微做一點手腳,就能讓監控電腦誤以為是限速標識牌。

此外,研究還表明,不只圖像會被弄混和認錯,自動語音識別也存在缺陷——有時計算機完全誤解了人們所說的話。混雜在語音文本中的干擾信號極其微弱,人耳很難分辨,卻能夠輕易使計算機上當受騙。這種情況不僅出現在一般錄音中,也出現在實時錄音中。甚至在音樂里,也隱藏著這些秘密的干擾信號。因此,當一個毫無戒心的音樂愛好者在視頻網站上錄製一場音樂會時,他的話筒很可能已經悄悄地向室內所有可接收信息的電腦發送了一些不為人知的信息。

人工智慧語音識別還有很大的發展空間。像亞馬遜的Alexa 那樣聰明的語音助手已經走入了千家萬戶,時刻聽從著主人的差遣。幾乎可以確定,在不久的將來,語音指令將左右我們一半的生活。到那時,如果有人企圖使壞,情況就糟糕了。因為他只需要將全智能房屋的燈突然關掉,或者在全家人面前用Alexa的聲音開一個下流的玩笑就能得逞。

人工智慧越是深入到人們的日常生活,其容易失誤這一缺點就體現得越為明顯。為此,無人駕駛的發展引發了諸多爭議。汽車供應商博世的一個研究團隊發現,理論上講,即使是主控計算機,也能被刻意干擾。實驗中,被干擾的計算機就像昏了頭一樣,無法辨識在汽車前面經過的行人。

到目前為止,針對這樣的「攻擊」能採取的措施很少。用已知的迷惑性圖案和干擾雜音來訓練人工智慧,使它不那麼容易掉入陷阱,這有一定的作用。但是,這樣的訓練並不能擔保它不受未知種類的「攻擊」。在出現新的突破之前,凡是在安全至上的地方,自主學習的人工智慧計算機都將會是一個難以估算的風險點。

對於人工智慧的發展而言,這是一個發人深省的問題。很多研究人員都曾希望他們的人工智慧計算機會隨著時間的推移而變得越來越聰明。一台能夠在無數張照片中正確識別出桌子的計算機,久而久之就該知道構成一張桌子的要素是什麼——一個有底座的平面,常常被幾把椅子所環繞,上面偶爾放著幾把早餐餐具、幾個家庭作業本或者一個棋盤。現在,這個希望幾乎已經破滅。計算機無法理解所有桌子的共性是什麼,也無法理解桌子的用途。把一個斑點圖案列印出來放在桌子上,就足以讓計算機把桌子認成一台烤麵包機了。

實際上真正令人驚嘆的是,即便人工智慧無法理解事物,卻仍然能夠達到目前的認知水平。

那麼,它究竟是如何識別出桌子的呢?針對這個問題,來自蒙特利爾大學的人工智慧專家約書亞·本吉奧經研究得出一個結論。照片有一個詭異的特點,同一種類的圖像,如車水馬龍的街景,即使採取截然不同的方法拍攝,在演算法上來說,也存在很多共同之處。也就是說,它們共享一個隱藏的編碼。決定這個編碼的因素包括:圖像表面的顏色怎麼分布,其對比度是怎樣的,是以光滑的表面還是以內部結構為主。這只是純粹的統計數據,對人類而言並沒有多大意義,但對於人工智慧而言,卻能提供海量的信息。比如,汽車的圖像與瀑布、摩天大樓、動物等其他物體的圖像有著不同的編碼,計算機僅憑這些像數學模型一樣的編碼,就能夠知道一張圖片所顯示的內容,壓根兒不需要「看」。本吉奧在最近的一次實驗中證明,人工智慧就是用這種數字遊戲來完成圖像識別的。對於圖像所展示的真正內容,它只有一個最基本的概念。這至少在某種程度上解釋了為什麼人工智慧在識別圖像時那麼容易弄混淆,以及為什麼它無法通過自主學習取得真正的進步。

本吉奧認為,「簡單的解決辦法是不存在的」。只有創立一種新的學習模式,由人類刻意訓練人工智慧去理解圖片的內容,人工智慧才會也去學習圖片中的物體到底是什麼,以及它們在現實世界中是如何互相關聯的。到目前為止,它識別圖像的過程還只是按圖索驥。要實現這個目標,人工智慧必須能從抽象概念的層面去理解事物:桌子怎樣才算桌子?烏龜怎樣才算烏龜?對此,谷歌公司的人工智慧研究員弗朗索瓦·喬萊特卻持懷疑態度。他認為讓人工智慧學會理解抽象的事物太難。「這是人工智慧最大的問題,」他在推特中這樣簡短地寫道,「沒有人知道該怎麼辦。」

可以預見,與此相關的研究在未來數年還會繼續進行下去,並且會更加深入。但與此同時,人工智慧也將遇到越來越多的「攻擊」。

原文作者:曼弗雷德·德沃夏克

[譯自德國《明鏡周刊》]


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 海外文摘雜誌社 的精彩文章:

秘魯金礦鎮:冰與火之下的生活
不可持續的旅遊業

TAG:海外文摘雜誌社 |