攻防最前線:黑客利用機器學習發動攻擊的6種方式
機器學習演算法可改進安全解決方案,幫助人類分析師更快地檢測威脅以及修復漏洞,但同時,機器學習也可助力黑客發起更大規模更複雜的攻擊。
對於信息安全行業來說,機器學習是一項突破性技術,它被定義為「計算機可自己學習的能力」。該技術可幫助安全分析師改進所有安全工作,從惡意軟體和日誌分析到更快地發現和修復漏洞等,機器學習還可改善端點安全、自動化重複任務,甚至還可減少導致數據泄露的攻擊可能性。
這使得人們相信,這種智能安全解決方案可比傳統工具更快地發現和阻止下一個WannaCry攻擊。J.Gold Associates公司總裁兼首席分析師Jack Gold稱:「機器學習仍然是一個新興領域,但這顯然是未來的發展方向。人工智慧和機器學習將極大地提高安全性。」
「面對數據和應用程序的快速發展,我們必須利用基於AI的自動化系統來分析網路流量及用戶交互以確保安全性,除此之外,真的別無他法。」
可問題是,黑客也知道這一點,他們也期望構建自己的AI和機器學習工具來發起攻擊。
網路罪犯如何利用機器學習?
現在的罪犯越來越趨向組織化,並且黑市提供廣泛的攻擊服務供其選擇,可以說安全防禦可能趕不上網路罪犯創新的速度。同時,考慮到機器學習和深度學習等技術尚未開發的潛力,網路罪犯的攻擊能力非常令人擔憂。
「我們必須認識到,機器學習、深度學習和人工智慧等技術將成為未來網路防禦的基石,但我們的對手也正在竭盡全力部署和利用這些技術,」McAfee公司首席技術官Steve Grobman稱,「在網路安全領域,常常是這樣的情況,由技術放大的人類智能將是攻擊者和防禦者之間『軍備競賽』的決勝因素。」
賽門鐵克公司首席技術官Nick Savvides表示:「這是我們在網路安全領域看到AI與AI對決的第一年。」攻擊者將能夠更有效地探索受感染網路,而這又迫使安全廠商開發更自動化和智能的解決方案。
Darktrace公司技術主管Dave Palmer指出:「自動響應是網路安全的未來。機器學習演算法可採取智能的有針對性的修復措施,它可減緩甚至停止正在進行的攻擊,同時仍然允許正常業務活動繼續進行。」
不過,目前我們還沒有聽說過基於機器學習的攻擊,但據稱某些技術已經被犯罪團伙所利用。
1. 規避型惡意軟體
對於網路罪犯來說,創建惡意軟體主要是手動操作,他們會編寫腳本來構建病毒和木馬程序,並利用rootkit、密碼提取器等工具來協助傳播和執行過程。
如果他們能加速這個過程呢?機器學習是否可幫助創建惡意軟體?
在2017年,一篇題為《Generating Adversarial Malware Examples for Black-Box Attacks Based on GAN》的論文中展示了第一個利用機器學習來創建惡意軟體的示例。在該論文中,作者介紹了他們如何構建基於生成對抗網路(GAN)的演算法來生成對抗惡意軟體樣本--這些樣本可繞過基於機器學習的檢測系統。
另外,在2017年DEFCON大會中,安全公司Endgame向與會者展示了他們如何利用Elon Musk的OpenAI框架創建定製化惡意軟體,而讓安全引擎無法檢測。Endgame的研究是利用看似惡意的二進位文件,並通過更改一些部分,讓代碼對防病毒引擎顯示為良性且可信。
同時,其他研究人員預測,機器學習最終可能會被用來遠程修改代碼-這是對多態惡意軟體的擴展。
2. 用於可擴展攻擊的智能殭屍網路
Fortinet認為,2018年將是智能化殭屍網路(hivenet)和集群機器(swarmbot)的一年,我們可能會看到越來越多「智能」IoT設備被利用來攻擊有漏洞的系統。Fortinet公司全球安全策略師Derek Manky表示:「它們將能夠相互通信,並根據本地共享情報來採取行動。此外,殭屍機器會變得更智能,它們可自己執行任務,而不需要殭屍網路操縱者的指示。智能化殭屍網路將成倍增長,並可同時攻擊多個受害者,還可阻礙緩解和響應措施。」
Manky稱,這些攻擊還沒有開始利用集群技術,這會使智能化殭屍網路從過去行為中自我學習。集群技術是AI的子領域,它被定義為「分散的自組織系統,自然或人造的集體行為」。現在已經應用於無人機和機器人設備中。
3. 高級魚叉式網路釣魚郵件變得更智能
攻擊者利用機器學習的另一種方式是將文本-語音、語音識別和自然語言處理(NLP)等演算法用於打造更智能的社會工程攻擊。畢竟,通過經常性的神經網路,你已經可以教授這種軟體寫作風格,因此,在理論上,釣魚郵件可變得更複雜且更可信。而且,機器學習可推動高級魚叉式網路釣魚郵件來針對高知名度個人的攻擊,同時自動化整個過程。這些釣魚系統可接受真正郵件的訓練,學習如何讓郵件看起來令人信服。
在McAfee實驗室對2017年的預測中稱,網路罪犯將更多地利用機器學習來分析大量被盜記錄,以識別潛在目標,並針對這些目標構建非常逼真的郵件。
同時,在2016年美國黑帽大會,John Seymour和Philip Tully發表論文《Weaponizing data science for social engineering: Automated E2E spear phishing on Twitter》,其中介紹了一種神經網路學習可向某些用戶發送釣魚推特。該論文介紹的SNAP_R神經網路經過魚叉式釣魚滲透測試數據的訓練,可從目標用戶發帖內容(以及用戶發送的推特或關注的用戶)中動態提取主題,讓釣魚郵件更可能被目標點擊。隨後事實證明,這個系統非常有效。在針對90名用戶的測試中,該框架的成功率在30%到60%之間,這與手動魚叉式釣魚和群發釣魚郵件相比有相當大的改進。
4. 威脅情報可能被利用
對於機器學習,威脅情報的作用飽受爭議。一方面,大家普遍認為,在誤報時代,機器學習系統可幫助分析師識別來自多個系統的真實威脅。Recorded Future首席技術官兼聯合創始人Staffan Truvé稱:「在威脅情報領域應用機器學習可帶來兩個方面的優勢。」
「首先,處理和分析如此龐大的數據量幾乎不可能單靠人力完成,包括對其中複雜關係的分析。結合機器與分析師意味著你可比以往任何適合都更有效地發現和響應新出現的威脅;其次是自動化,雖然我們作為人類可完成所有這些任務,但利用這項技術可讓我們處理更多的任務。」
然而,也有人認為,網路罪犯會再次適應這些警報。McAfee公司的Grobman此前曾指出,攻擊者將利用該技術來轟擊系統,從而讓常見機器學習模型產生大量誤報。當目標重新校準其系統來過濾誤報時,攻擊者就可通過機器學習系統發送真正的攻擊。
5. 未經授權訪問
早在2012年,Claudia Cruz、Fernando Uceda和Leobardo Reyes三位研究人員就展示了機器學慣用於安全攻擊的示例。他們利用支持向量機器(SVM)來攻擊在reCAPTCHA鏡像運行的系統,準確度高達82%。隨後所有驗證碼機制都得以改進,而這些研究人員利用深度學習才再次攻擊CAPTCHA。在2016年,他們又發表了一篇文章詳細介紹如何利用深度學習以92%的準確度來攻擊simple-captcha。
另外,去年黑帽大會的「I am Robot」研究揭示了研究人員如何攻擊最新的語義圖像CAPTCHA,並對各種機器學習演算法進行了比較。該研究承諾可對谷歌的reCAPTCHA發起準確度高達98%的攻擊。
6. 感染機器學習引擎
一種更加簡單而有效的攻擊技術是感染用於檢測惡意軟體的機器學習引擎,讓其失去作用,正如過去攻擊者對防病毒引擎所做的那樣。這聽起來很簡單;機器學習模型從輸入數據中學習,如果數據池被感染,那麼輸出也會受影響。另外,來自紐約大學的研究人員展示了卷積神經網路(CNN)(例如谷歌、微軟和AWS)如何被攻擊,併產生錯誤(但受控制的)結果。
本文翻譯自CSO Online
TAG:機器學習 |