不管你信不信,人工智慧將成為黑客神器
機器學習被定義為「(計算機)在不被明確編程的情況下進行學習的能力」,它對於信息安全行業來說也會有巨大影響。這是一種潛在的技術,它可以幫助安全分析師,從惡意軟體和日誌分析到更早的識別和修復漏洞。也許,它還可以改進終端安全性、自動化重複的任務,甚至減少由數據過濾導致攻擊的可能性。
但問題是,黑客們也知道這一點,並期望建立自己的人工智慧和機器學習工具來發動攻擊。
黑客們會如何使用機器學習?
這些犯罪分子——組織越來越多和網路上提供的服務越來越廣泛——最終的創新速度可能將超過安全防禦的速度。這是考慮到機器學習和深度學習等技術尚未開發的潛力。
「我們必須認識到,儘管像機器學習、深度學習和人工智慧這樣的技術將是未來網路防禦的基石,但我們的對手也正努力地藉助這些技術實施創新。」McAfee首席技術官史蒂夫·格羅布曼(Steve Grobman)在對媒體的評論中說。「就像網路安全領域經常發生的那樣,科技增強的人工智慧將成為攻擊者和捍衛者之間軍備競賽中獲勝的因素。」
基於機器學習的攻擊在當前可能仍然是甚少聽聞的,但其實一些技術已經開始被犯罪集團利用了。
1、惡意軟體逃避檢測
惡意軟體的創建在很大程度上是網路罪犯人工完成的。他們編寫腳本以組成計算機病毒和木馬,並利用rootkit、密碼抓取器和其他工具幫助分發和執行。
但如果他們能加快這一進程呢?機器學習是否可以幫助創建惡意軟體?
第一個使用機器學習惡意軟體創建的例子是在2017年發表的一篇題為「生成基於GAN的黑盒攻擊的惡意軟體示例」的論文。在報告中,作者揭示了他們是如何建立一個生成式對抗網路(GAN)的演算法來產生對抗的惡意軟體樣本,關鍵是,能夠繞過機器學習的檢測系統。
在另一個例子中,在2017年的DEFCON大會上,安全公司Endgame披露了它如何使用Elon Musk的OpenAI框架創建了定製惡意軟體,以創建安全引擎無法檢測到的惡意軟體。Endgame的研究是基於似乎是惡意的二進位文件,並且通過改變一些部分,這些代碼在反病毒引擎中看起來是良性和值得信賴的。
與此同時,其他研究人員預測,機器學習最終將被用來「根據實驗室中的檢測方法修改代碼」,這是多態惡意軟體的一個擴展。
2、用於可擴展攻擊的智能殭屍網路。
安全公司Fortinet認為2018年將是「蜂巢網路(Hivenets)」和「機器人集群(Swarmbots)」的一年,這在本質上標誌著「智能」IoT設備可以被命令對脆弱的系統進行規模化攻擊。「它們將有能力相互交流,並根據共享的本地信息採取行動。」Fortinet全球安全策略師德里克?曼基(Derek Manky)表示。「此外,『殭屍』也會變得聰明,能夠在沒有『殭屍網路牧人』的指導下行動。其結果是,蜂巢網路將能夠以成倍的速度增長,擴大自身同時對受害者進行攻擊的能力,並顯著阻礙緩解和應對。」
有趣的是,Manky說這些攻擊還沒有使用集群技術,該技術可能使這些蜂巢網路能夠從過去的行為中學習。人工智慧的一個分支,集群技術被定義為「分散的、自組織的系統的集體行為,自然的或人工的」,現在已經被用於無人機和新興的機器人設備。
3、先進的魚叉式網路釣魚變得更智能
對抗性機器學習的一個更明顯的應用是,使用如文本轉換為語音、語音識別和自然語言處理(NLP)這樣的演算法來進行更智能的社會工程。畢竟,通過反覆使用的神經網路,你已經可以讓這種軟體具備一定的寫作風格,所以在理論上,釣魚電子郵件可能變得更加複雜和可信。
特別是,機器學習可以使先進的魚叉式網路釣魚成為針對知名人物的目標,同時使整個過程自動化。系統可以在真正的電子郵件上進行訓練,並學會做一些看起來有說服力的東西。
在McAfee實驗室對2017年的預測中,該公司表示,犯罪分子將越來越多地利用機器學習來分析大量隱私記錄,以識別潛在的受害者,並建立能有效針對這些人的背景細節的電子郵件。
此外,在2016年的《美國黑帽》(Black Hat USA)中,約翰·西摩(John Seymour)和菲利普·塔利(Philip Tully)提出了一篇名為「社會工程的武器數據科學: 在推特上實現自動E2E魚叉式網路釣魚」的論文,該論文提出了一種遞歸神經網路學習,在推特上推送釣魚貼,以針對特定的用戶。在這篇論文中,他們提出了SNAP_R神經網路,它是針對魚叉式網路釣魚測試數據進行訓練的,它被動態地從目標用戶(以及他們的推文或跟蹤用戶)的時間軸上的帖子中提取出來,從而更有可能進行點擊。
隨後,該系統非常有效。在涉及90個用戶的測試中,該框架的成功率在30%到60%之間,對手動魚叉式網路釣魚和批量釣魚的結果有相當大的改進。
4、威脅情報不受控制
在機器學習方面,威脅情報可以說是好壞參半。一方面,人們普遍認為,機器學習系統將幫助分析師識別來自多個系統的真正威脅。
然而,也有一種觀點認為,網路罪犯將會適應如何簡單地讓這些警報再次過載。McAfee的Grobman先前指出了一種被稱為「提高雜訊基底(noise floor)」的技術。「黑客會利用這種技術對一個環境進行『轟炸』,從而為普通的機器學習模型製造大量的主動錯誤信息。」一旦目標重新校準它的系統,以過濾掉假警報,攻擊者就可以發起一個通過機器學習系統獲得的真正的攻擊。
5、未經授權的訪問
早期有一個例子是2012年研究人員克勞迪婭?克魯茲(Claudia Cruz)、費爾南多?烏西達(Fernando Uceda)和萊奧巴多?雷耶斯(Leobardo Reyes)所發表的關於用於安全攻擊的機器學習。他們使用支持向量機(SVM)來破壞一個系統——該系統運行在重新驗證的圖像上,準確率高達82%。所有的驗證碼機制後來都得到了改進,然而研究人員再次使用深度學習來破解了驗證碼。在2016年發表的一篇文章中,詳細介紹了如何使用深度學習,以92%的精確度破解簡單驗證碼。
另外,去年BlackHat的「我是機器人」研究揭示了研究人員如何破解最新的語義圖像驗證碼,並比較了各種機器學習演算法。這篇論文中提到在谷歌的驗證碼系統中有98%的準確率。
6、毒化機器學習引擎
一種更簡單、更有效的技術是,毒化用於檢測惡意軟體的機器學習引擎,使其無效,就像網路罪犯過去使用的反病毒引擎一樣。這聽上去很簡單,機器學習模型從輸入數據中學習,如果數據池中毒,那麼輸出也會中毒。來自紐約大學的研究人員演示了卷積神經網路(CNN)如何通過像谷歌、微軟和AWS這樣的CNN產生這些虛假(但受控)的結果。
https://www.easyaq.com/news/1545627932.shtml
※區塊鏈上美國提案了,這波風跟不跟?
※英特爾晶元漏洞PoC發布後出現上百種惡意軟體
TAG:E安全 |