專訪周鴻禕委員:站在全局高度共建國家級網路安全大腦
首發:3月13日《新華每日電訊》
作者:新華每日電訊記者劉荒
3月6日,周鴻禕委員在記者會上回答記者提問。新華社記者王鵬攝
「隨著5G通信、人工智慧、萬物互聯等新一輪技術革命和產業變革的加速演進,網路安全形勢也會越來越嚴峻。」全國政協委員、360集團董事長兼首席執行官周鴻禕日前接受新華每日電訊記者專訪時表示,要站在堅持總體國家安全觀的全局高度,打破各自為戰的傳統網路安全模式,統一安全大數據,共建國家級網路安全大腦,構築大安全時代的國家網路空間安全防線。
共建網路安全大腦,踐行總體國家安全觀
記者:今年全國兩會期間,您向大會提交了「統一安全大數據,共建國家級網路安全大腦」的提案,請問其中主要問題和建議是什麼?360安全大腦為何選擇汽車行業應用作為突破口?
周鴻禕:毋庸置疑,未來數以百億計的智能設備,必將深入我們生產生活的方方面面。隨著「一切皆可編程,萬物均要互聯」的大安全時代到來,網路安全風險也從虛擬空間擴展到物理世界,從過去相對孤立的數據泄露、病毒和木馬等侵襲,轉向對國家安全、國防安全、關鍵基礎設施安全、社會安全乃至人身安全的惡意控制或攻擊,網路安全形勢越發嚴峻。
雖然我們也建立了一些網路安全防禦系統,但數據孤島、各自為戰等現象普遍存在。無論是企業、網路安全公司、運營商還是政府部門,都分兵把口各自掌握一部分數據,既看不到全局,也形不成合力。
因此,要站在堅持總體國家安全觀的全局高度,統一安全大數據,共建國家級網路安全大腦,利用基於大數據的人工智慧,解決萬物互聯時代錯綜複雜的安全問題,構築大安全時代的國家網路空間安全防線。
首先,建議將國家級網路安全大腦列為國家重大工程專項,成立國家網路安全大腦項目總體工作組、專家組、工程推進組,分別負責頂層設計和總體籌劃、系統設計、工程建設。
其次,建議由國家相關部門牽頭,協調網信、工信、公安、科技等部門和單位,組織國企、民企、科研院所等廣泛參與,發揮新型舉國體制優勢。
360汽車安全大腦是我們針對汽車行業的解決方案,是360安全大腦的一部分。我們選擇汽車行業作為重點關注領域,主要基於車聯網技術的快速發展與應用,為網路安全技術研究提供了豐富的案例,以及多樣化的研究環境。
同時,智能汽車作為交通工具,一旦被黑客攻擊或劫持,有可能造成人身傷害、群死群傷等安全事故,威脅人身安全、社會安全和國家安全。
目前,我們是全球車聯網領域唯一能提供整套智能汽車安全產品方案的企業,已連接到360汽車安全大腦的智能汽車超過15萬輛,我們爭取2020年實現100萬輛。
從「顛覆者」到「賦能者」,重構網路安全生態觀
記者:面向5G時代和產業互聯網,360提出要從行業「顛覆者」變身生態「賦能者」,這種新型網路安全行業生態觀是如何形成的?免費殺毒的模式是否會導入產業互聯網中?
周鴻禕:5G通信是新一代的移動通信,帶寬大幅度增強,峰值速率是4G的100倍。從網路安全方面來看,最大的挑戰在於它構築了萬物互聯的基礎,海量IOT設備的普及和數據的傳輸成為可能。
圍繞5G技術落地商用,由AR、VR以及AI等交互技術所衍生髮展的新業務、新架構、新技術,都對整體網路安全提出了新的挑戰,已遠非政府、企業、個人可以局部應對的,這就需要利用新技術打造一個整體的解決方案。
去年,我們基於安全大數據構建了360安全大腦,可以實現網路安全的自動化、智能化。360希望開放自己的技術、人才、數據、知識,變成很多安全公司背後一個技術和數據的賦能者,共同把安全生態做起來。未來360隻有朋友沒有對手。
從顛覆到賦能,其實是互聯網上下半場的區別。其實,互聯網在早期創新的時候,更多的是一種商業模式和用戶體驗的創新,所以看到一些互聯網公司上半場顛覆了很多行業。但是輪到下半場也就是產業互聯網,面臨的已不是誰幹掉誰的問題,而是如何融合發展的問題。
很多傳統產業特別像製造業有非常深的底蘊,他們需要互聯網、雲計算、大數據、人工智慧、區塊鏈、物聯網、網路安全這些技術來改造升級。在這個過程中,你很難找到一家公司,又精通互聯網,又精通傳統行業,這裡需要這幾個行業進行深度融合,而不是相互替代。產業互聯網時代的主角將是以傳統企業為主的實體經濟,互聯網公司更多的是提供賦能。
相形之下,免費殺毒模式是基於軟體系統,而產業互聯網的終端更多是硬體產品,無法像軟體一樣小步快跑、快速迭代,硬體產品的成本、技術、用戶體驗、供應鏈管理都更加複雜。
「安全應成為人工智慧發展的基礎和前提」
記者:信息世界與物理世界聯通,使安全問題總是變得錯綜複雜,而人工智慧的安全隱患則更令人擔憂。您能否舉例說明「安全應成為人工智慧發展的基礎與前提」的論斷?
周鴻禕:往往任何技術的發展都有兩面性。人工智慧無疑是下一輪技術革命的焦點,但目前的人工智慧自身就存在安全問題——
首先,前端感測器被干擾。無人駕駛汽車識別路況信息,主要依靠紅外感應、激光雷達等各類車載感測器,而這些感測器目前並不安全,很容易被干擾,造成人工智慧識別和決策失誤。比如我們用激光筆干擾車載雷達,就有可能造成車輛急停,引起追尾事故。
其次,訓練數據被污染。人工智慧是大數據訓練出來的,訓練的數據可以被污染,甚至被黑客進行「數據投毒」。此前微軟聊天機器人Tay,因未對Tay與網友的對話做任何設定,上線16個小時內就被「教壞」,成為一名滿口暴力的「不良少年」,甚至不乏偏激的種族主義言論,最後不得不匆匆下線。
還有,內部演算法不完善。作為一種概率判斷系統,即使人工智慧可以保證99.99%的準確性,但是對於安全來講,它只要出現一次錯誤,就會造成嚴重後果。2018年,美國Uber公司自動駕駛測試車發生了撞人事故。當時這輛汽車處於光線很暗的環境中,被撞的女士穿了件黑色衣服,人工智慧系統沒有做出任何判斷,甚至沒有減速,最終釀成了悲劇。
另外,實現平台有漏洞。許多AI系統都依賴開源的深度學習軟體,經驗表明,軟體只要是人寫的就一定有漏洞,有漏洞就會被人利用。我們的研究人員已經發現了40多個深度學習框架的軟體漏洞。另外,隨著開源演算法越來越通用,潛在的風險也會增多。
目前,隨著人工智慧與人類生活的深度融合,人們在享受這些新技術帶來的便利時,往往容易忽視技術自身的安全問題。我們已經看到,針對物聯網、智能家居、無人駕駛汽車等智能系統的攻擊在不斷出現,人工智慧用於網路攻擊、網路犯罪的事件也屢有發生。因此,安全應成為人工智慧發展的基礎與前提,以確保人工智慧健康有序發展。
往期文章
監製:易艷剛 | 責編:劉新華 | 校對:趙岑
※「假裝買房」「二老150歲」也能收禮,兩三年不辦酒就「破產」……
※中國汽水地理:每座城市都有一款從小喝到大的專屬飲料
TAG:新華每日電訊 |