專家斷言人工智慧5年內威脅劇增,這場攻防戰已經打響……
這是一份AI人對AI人發出的警告。
近日,OpenAI等14大知名機構聯名發布了一份關於惡意使用人工智慧的報告。該報告從技術角度出發,指出了未來5年內人工智慧被濫用的風險。
危險和騙術正在升級……
某安全管理系統的管理員在瀏覽網站,一則模型火車的廣告吸引了她。她點開還下載了一個小冊子。此時,攻擊開始了。小冊子一旦被打開,黑客就能窺視她的電腦,獲得安全管理系統的用戶名和密碼。
至於管理員看到的廣告,則是黑客根據其個人興趣,結合人工智慧精心設計的「陷阱」。
雖然這是報告中給出的假設性案例,但這個操作,一點都不令人意外。
用人工智慧搞破壞真不是科幻
報告名為《惡意使用人工智慧:預警、防止和緩解》,它由26位作者共同完成,其中不乏人工智慧技術研究者。
報告將濫用人工智慧的威脅分為了物理安全、數字安全和政治安全三類。在物理安全方面,不法分子可以入侵網路系統,將無人機或者其他無人設備變成攻擊的武器。
在數字安全方面,人工智慧可以被用來自動執行網路攻擊,它也能合成人類的指紋或聲紋騙過識別系統;在政治安全方面,人工智慧可以用來進行監視、煽動和欺騙,引發公眾恐慌和社會動蕩。
這些都不是危言聳聽,甚至已有實例。
2017年,浙江警方破獲了一起利用人工智慧犯罪、侵犯公民個人信息案。專業黑客用深度學習技術訓練機器,讓機器能夠自主操作,批量識別驗證碼。「很短時間就能識別上千上萬個驗證碼。」當時的辦案民警介紹。
北京郵電大學人機交互與認知工程實驗室主任劉偉曾見識過一家人工智慧公司的「聲音合成」技術,A說的話完全可以套上B的聲音,「一般人識別不出來」。劉偉說,這些技術一旦被別有用心的人利用,「世界可能就亂套了」。
AI技術迅速發展,5年,是計算機視覺圖像識別超越人類的時間,而圖像合成,則從2011年的模糊不清,到2017年與照片一樣逼真,也經歷了飛躍發展。因此,5年後,計算機「以假亂真」能到什麼地步?如果遭到濫用,後果將會怎樣,這無一不讓AI研究者和技術人員需要從現在就開始考慮。
這場攻防戰,要靠制度
一方面是升級技術。當攻擊方用上了導彈大炮,防禦方就不能只用「小米加步槍」。中國社科院文化法制研究中心研究員劉明說,技術帶來的問題,有時也可以用技術發展來解決。
人工智慧是一種工具,工具的發展也許不會從根本上改變行為的性質,但會改變行為的模式和行為後果的烈度。「如果意識到自己所在行業存在人工智慧帶來的威脅,自身加強防範就很重要。」
劉偉也表示,如果有一種技術能將聲音模仿得惟妙惟肖,就會有另一種技術來識別這聲音來自李鬼還是李逵。「這可能是一場無止境的技術攻防戰。」
另一方面,則需要制度。
「人工智慧本身沒有倫理問題,最終還是製造者、使用者、傳播者們(人)的倫理問題。」劉偉追溯「倫理」一詞起源,它來自希臘文的「ethos」,是風俗和習慣的意思。
東西方其實有不同的倫理觀,在劉偉看來,西方研究「人與物」的關係,東方則喜歡談「人與人」的關係。倫理具有情境性,還有文化依賴性。「人工智慧倫理研究要考慮交互主體-人類的思維與認知方式,要弄清楚人的倫理中可以進行結構化處理的部分,再讓機器形成所謂的倫理。」
除了倫理框架,也需要規範甚至是法律。
「當技術即將作用於現實生活,一些危險已經可以預測,從法學家的角度來看,此時我們來討論問題如何解決、責任如何分配是比較合適的。」劉明也參加過多次有關自動駕駛規範的研討會。
自動駕駛已在大規模應用前夕,因此其規則研討就需要提上議事日程。但這種規則的制定也無法一蹴而就,還需根據實踐中出現的真問題再度進行調整。「隨著技術的發展,對應的法律規範調整的靈活度會比以前更大,調整速度會更快。」劉明說。
劉偉認為,人工智慧發展規範的制定,必須要有人文社科學者的參與。他主張不同學科、不同領域的人加強交流。政府、民間組織、科研機構和企業都可以搭建這樣的橋樑,為各行各業的人提供討論的平台。畢竟,人工智慧將要影響的,可能是所有人。
文中圖片除註明外均來自網路
編輯:劉義陽
審核:王小龍
※年貨四十年變遷,科技成了主角
※除夕的內涵如此豐富,怎麼可以只知道吃餃子?
TAG:科技日報 |