人工智慧「被黑」的結果出人意料
人工智慧工程師發現,在香蕉旁邊放置一片烤麵包機的廣告貼,機器就會把含有香蕉的整個圖像識別為烤麵包機。
人工智慧真的比人類具有智慧嗎?發展人工智慧的工程師指出,人工智慧實質上沒有想像的那麼強。人只要使用一點點小技巧,就可以「黑掉」它,讓它計算錯誤。
據《科學美國人》1月22日報導,人工智慧已成為熱門話題,因為程序的性能越來越強,可以製造以假亂真的視頻、維妙維肖的人面畫像、真偽難辨的虛擬人聲等等。有人擔心,人工智慧可以達到完全取代人而進行工作的程度。
但是,開發深度學習網路的工程師們表示,機器無論有多麼聰明,也是極為脆弱的。人只要使用一點點的小技巧,就能輕鬆地擾亂它的判斷。
美國麻省理工大學的一位人工智慧學研究生阿瑟葉(Anish Athalye)解釋說:「計算機(電腦)神經網路在某些方面確實有超人本領,好像它們能勝過人的能力。但是,它們有一種奇怪的特性,就是能被人輕而易舉地騙過。」
人工智慧能識別這是香蕉,但是不知道香蕉的含義,例如香蕉是一種熱帶水果,不宜長期儲存。
阿瑟葉(Anish)等人發現,他們可以讓深度學習系統把滑板判斷為小狗、烏龜看成步槍。
阿瑟葉舉例說,取一張香蕉圖片,其背景為普通的土地。如果在其香蕉旁邊放一張引起人幻覺的烤麵包機彩色廣告貼,那麼谷歌的圖片識別系統就會將它們識別為烤麵包機,而不再是香蕉。
人工智慧可以識別這是過度成熟的香蕉嗎?它不能理解香蕉上的黑色斑點的含義。
紐約大學的心理學教授馬庫斯(Gary Marcus)認為,人工智慧程序之所以能犯這種可笑的錯誤,是因為「機器不理解場景整體的意義」。換句話說,就是機器不懂圖形所代表的含義,當然也無法理解「物體或事物之間的內在因果關係,而無法解讀誰為什麼原因而為誰做什麼」。
近期,人工智慧閱讀器SQuAD表現出比人強的閱讀能力。對此,馬庫斯在推特上評論:「SQuAD顯示出機器能夠注重相關文欄位落的內容,但是它不明白這些段落的真正含義。」#
※好項目:一種可固定在尿布上的數字感測器可穿戴技術
※科學的「科」是個什麼東東?
TAG:沒看過沒聽過 |