當前位置:
首頁 > 最新 > 人工智慧:AI有一個難以解決的幻覺問題

人工智慧:AI有一個難以解決的幻覺問題

到目前為止,此類攻擊只在實驗室實驗中得到證實,沒有在街道或家中觀察到。

人工智慧

由於機器學習軟體的巨大突破,科技公司正在急於向人工智慧注入所有東西。但是,激發興奮的深層神經網路軟體有一個令人不安的弱點:對圖像,文本或音頻進行微妙的改變可以欺騙這些系統感知那些不存在的東西。

對於依賴機器學習的產品來說,這可能是一個大問題,特別是對於視覺,如自駕車。領先的研究人員正在努力制定針對此類攻擊的防禦措施 - 但這被證明是一項挑戰。

案例:1月份,一場領先的機器學習會議宣布,它已經在4月份選出了11篇新論文,提出了捍衛或檢測這種對抗性攻擊的方法。僅僅三天後,麻省理工學院一年級畢業生Anish Athalye就拋出了一個網頁,聲稱已經破壞了七篇新論文,其中包括谷歌,亞馬遜和斯坦福等黑體機構。Athalye說:「創造性的攻擊者仍然可以解決所有這些防禦問題。他與伯克利分校的研究生和教授Nicholas Carlini和David Wagner一起工作。

該項目導致一些學者對三人聲稱的某些細節進行了反覆的討論。但關於這一發現的一條信息幾乎沒有爭議:目前尚不清楚如何保護深度神經網路,為消費者小工具的創新和自動駕駛造成的幻覺破壞提供動力。「所有這些系統都很脆弱,」義大利卡利亞里大學的助理教授Battista Biggio說,他已經考慮了機器學習安全問題約十年,並沒有參與這項研究。「機器學習社區缺乏評估安全性的方法論。」

WIRED的人類讀者將很容易識別Athalye創建的以下圖像,顯示兩名滑雪者。當被問及星期四上午的問題時,谷歌的Cloud Vision服務報告稱,有91%的人認為它看到了一條狗。其他特技已經展示了如何讓停止標誌看不見,或者音頻對人類聽起來是溫和的,但是被軟體轉錄為「 好的谷歌瀏覽到惡意點com」。

人工智慧排名

到目前為止,此類攻擊只在實驗室實驗中得到證實,沒有在街道或家中觀察到。但是伯克利的博士後研究員李波說,現在他們仍然需要認真對待。自動駕駛汽車的視覺系統,能夠花錢的語音助理以及過濾網上不雅內容的機器學習系統都需要值得信賴。「這可能是非常危險的,」李說。她去年對研究做出了貢獻,顯示出貼上貼紙來停止跡象可能會讓機器學習軟體看不見它們。

AI和國家安全研究人員上個月的一份重要報告提出了類似的建議。它建議那些從事機器學習的人士更多地考慮他們正在創造的技術如何被濫用或被利用。

對於某些AI系統來說,防範對抗性攻擊可能比其他系統更容易。Biggio說,訓練有素的檢測惡意軟體的學習系統應該更容易實現更強大的功能,例如,因為惡意軟體必須具有功能性,限制了它的多樣性。Biggio說,保護計算機視覺系統要困難得多,因為自然世界變化多端,圖像包含很多像素。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 互聯網相對論 的精彩文章:

TAG:互聯網相對論 |