當前位置:
首頁 > 新聞 > 積極做好人工智慧技術安全風險評估

積極做好人工智慧技術安全風險評估

隨著新科技革命的縱深發展、智能演算法的優化升級,人工智慧技術可能帶來新的挑戰與治理困境。因此,積極做好人工智慧的政策引導與合理規制,推進智能技術安全風險評估預警研究,對實現人工智慧健康持續發展顯得尤為重要。

人工智慧技術應用存在風險

人工智慧技術對於智慧社會建設意義非凡。人工智慧技術的繁榮,也離不開人類社會的場景應用。然而我們在大力推進人工智慧與實際生活接軌時,必須高度警惕人工智慧在技術應用、法律道德以及社會關係等領域的潛在風險。

第一,人工智慧技術的場景應用風險。目前,人工智慧技術應用涉及智慧醫療、智慧交通、智慧司法及智能教育等方方面面。在智慧交通方面,無人駕駛技術不僅提升了駕駛員的安全性,還為其節省出更多的自由時間,經演算法分配可緩解交通擁堵狀態。但無人駕駛網路系統一旦受到黑客或者市場競爭對手的惡意攻擊,極有可能使人類生命財產安全受到巨大威脅。在智慧醫療方面,人工智慧技術在諸如醫療輔助機器、智能藥物研發、智能醫學影響、個人智能健康管理等智能診療方面發揮巨大作用。然而當前人工智慧還處在初級階段,系統本身存在漏洞,若大面積臨床應用易引發醫療事故;智慧醫療一旦發生醫患糾紛,就會存在責任主體無法明確的問題。在智慧司法領域,人工智慧技術已得到初步推廣,最高人民法院與最高人民檢察院分別提出「智慧法院」和「智慧檢務」。《法治藍皮書·中國法院信息化發展報告(2019)》也指出,智慧法院在「信息化助理司法為民」「信息化輔助審判執行和司法管理」和「信息化服務國家社會」三大方面全面推進。但是人工智慧技術並不能完全取代司法工作者,它消解司法的本質和法官的主體性。另外,人工智慧技術的演算法存在「黑箱」缺乏有效監督,無法保證審判結果的公正、客觀,難以使人信服,甚至出現人工智慧技術下的冤假錯案。

第二,人工智慧技術背後的法律道德風險。「科學技術本身是中性的,無所謂善惡,科技對人類及環境的負責作用完全是人類自身的責任。」人工智慧技術在法律道德方面同樣面臨風險。首先,人工智慧領域的立法相對滯後。技術壁壘、現實不對稱以及法律的權威性等原因,造成了人工智慧領域的立法滯後。在民法、知識產權法、交通法以及刑法等諸多領域,不僅缺乏有效的法律供給,而且相關技術還與現行法律秩序相衝突。其次,個人隱私和信息安全受到威脅。人工智慧技術的應用與發展,離不開對數據的採集與利用,數據不斷更新與擴張則會引發信息泄露、侵犯隱私的風險。最後,人工智慧法律倫理方面存在困境。人工智慧技術經過演算法的不斷升級換代,或許可完全繞過人腦固有的思維方式,形成「新智能思維」強制模擬人類思維,從而使人類陷入思維無法觸及的地帶,達到新興技術生命周期的「峽谷」。

第三,由人工智慧所引發的社會關係風險。在人工智慧時代,我們需要更加重視兩對關係,即人與人關係、人與機器的關係。在人與人關係方面,隨著人工智慧與實業相結合,部分職業被機器所取代,傳統行業面臨重組,從而造成結構性失業。在人與機器關係方面,學界一直存在爭論。隨著深度學習為智能系統不斷優化升級,智能機器將會在某些領域達到甚至超越人類的水平,人工智慧一旦在自主意識和情感領域取得新進展,那麼人與機器之間的關係會變得複雜。此外,對於絕大多數的用戶而言,他們不會試圖研究甚至難以了解演算法的內在邏輯,同時維護人員也很難全面掌握、解釋智能技術在深入學習後的選擇機制,從而形成演算法的「黑箱」,嚴重情況下會演進為演算法歧視。

人工智慧安全風險評估優化路徑

為確保人工智慧技術平穩安全落地,我們不能被動地在發生危險後緊急處理相關問題,而要在第一時間掌握技術的最新動態,積極做好人工智慧安全風險評估和預警工作。

第一,完善人工智慧安全應用的法律覆蓋和兜底。當前,我國在人工智慧技術安全運用領域還存在大量法律空白。對此,立法者應制定相關法規,為智能技術的應用安全提供法律保障,防控人工智慧技術帶來的潛在風險。一方面,立法者要全面審視現有法律體系,並使其不斷適應社會需求,同時注重立法加強用戶信息和隱私的保護、個人數據合法使用、人工演算法的普適公平,以及智能技術失效後的救濟管理,明確人工智慧法律主體以及相關權利、義務和責任,構建實現新技術的法律基礎。另一方面,設立人工智慧發展規劃和前沿技術領域的負面清單,從法律底線構建「安全防火牆」。在國家層面立法實現對人工智慧的演算法設計、產品開發、數據採集和產品應用的全流程規制,在可能引發人工智慧不可預知性和不確定性的技術領域,立法設立紅區或研發限制規範,推進人工智慧技術健康發展與應用。

第二,健全人工智慧安全等級和風險預估機制。由於人工智慧的發展存在很多的不確定性,亟須加強人工智慧潛在風險的評估,促使人工智慧安全可控發展。首先,政府應聯合相關高校、智庫和科技公司等對人工智慧技術的應用進行安全等級評估,不同安全等級運用不同層次的智能安防技術,確保人工智慧技術應用的安全性、有序性。其次,針對人工智慧技術應用進行風險預估,預防人工智慧在場景應用中存在的潛在風險,防止技術手段在實際運用中可能出現的故障、失效、被入侵等隱患。如通過人工智慧技術建立對抗性學習演算法研究,利用「技術制約技術」的理念,優化智能技術開發架構,降低人工智慧帶來的隱患。最後,政府安全部門應聯合相關執法機構,完善對人工智慧技術應用主體的監控機制,建立倫理與風險審查機制,降低人工智慧技術受到人為因素影響的概率。

第三,做好人工智慧風險防控領域前瞻性研究。面對智能技術的安全威脅,人們應採取積極應對的態度,秉持「早發現、早治療、早升級」的理念促進人工智慧的良序發展。一是成立具有國家戰略高度的人工智慧風險防控系統與實體研究機構,切實加強各類人工智慧安全應用平台建設和人工智慧學科專業建設與人才培養;形成以政府為主導、企業為主體、市場為導向的產學研相結合的模式,鼓勵開發相關人工智慧技術,拓寬人工智慧技術的安全應用領域。二是貫徹人類命運共同體理念,積極開展多邊國際智能安全技術合作。中國應積极參与人工智慧全球治理,主動搭建人工智慧倫理規範、制度建設和國際規制等全球合作平台,在智能技術安全風險管控、國家安全治理等重大國際議題上,貢獻中國智慧與力量,共同應對全球性挑戰。

總而言之,我們需要從實際出發,因地制宜、因時制宜,從頂層設計層面加強對人工智慧新技術融入經濟社會的規劃和引導,準確把握技術和產業發展趨勢,不斷規範不同領域人工智慧安全應用,進而避免盲目追求人工智慧技術的應用,而忽視了智能技術造福於人的本質目標。

(作者單位:華東政法大學中國法治戰略研究中心)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!


請您繼續閱讀更多來自 中國社會科學網 的精彩文章:

當代俄羅斯文學發展趨勢與規律
辯證看待人工智慧對就業的影響