當前位置:
首頁 > 最新 > 人工智慧應用和隱私保護如何兼得?

人工智慧應用和隱私保護如何兼得?


讓人工智慧在保障用戶隱私安全的軌道上有序發展。

讓人工智慧在保障用戶隱私安全的軌道上有序發展。


  來源:中國科學報

  在人們越來越看重個人隱私和信息安全的當下,人工智慧技術是把雙刃劍。如何讓人工智慧在保障用戶隱私安全的軌道上有序發展,正成為國內外共同關注的焦點和難點。


  5月16日,美國舊金山市政府通過《停止秘密監察條例》法案,禁止舊金山的政府機構使用人臉識別技術,並將「靠人臉識別技術獲得某些信息」列為違法行為。這無疑是一種隱私保護的措施,但也引起諸多爭議。


  國內某著名計算機視覺創業公司一位要求匿名的副總裁在接受《中國科學報》採訪時反問:「舊金山已經不再是一座能讓人感到安全的城市,人臉識別作為提高安全係數的基礎工具,反而禁止使用,不知道什麼技術手段可以保證安全?」


  人工智慧和隱私安全不可兼得?

  有意思的是,最近亞馬遜公司的股東以壓倒性多數票,否決了該公司停止向政府機構出售其人臉識別技術的一項提議,只有2.4%的股東投票贊成這項禁令。


  「這兩件事情放在一起看非常有意思。」上述副總裁說,這說明圍繞個人隱私、群體安全問題,對於人臉識別技術的使用需要一個平衡。「這個平衡,就是一個好的規則規範——不僅要去規範人臉識別技術企業,還要去規範使用這些技術的機構。」


  實際上,人臉識別技術所創造的價值是被認可的。該副總裁認為,假使只是因為不確定使用人臉識別技術能夠帶來什麼後果就直接禁用,那麼這隻能是一種短視或者短期行為。


  「在滿足某些條件的情況下,這種技術當然是可以應用的。」他說道,「作為發明和使用新技術的人,都要去認真思考這些問題,並且一起努力促使新規範的形成,而不是直接禁止掉。」


  隨著大數據的使用、算力的提高和演算法的突破,人工智慧正變得無處不在。由此帶來的問題是,人們一方面享受人工智慧帶來的「紅利」,另一方面則面臨隱私被當做「資源」過度和非法使用的困境。如何應對人們隱私「裸奔」的挑戰變得越發嚴峻。

  技術手段:區塊鏈技術被派上場


  以「人工智慧+醫療」為例,人工智慧技術在醫療健康領域的應用潛力巨大,但也面臨著數據的問題——用以訓練人工智慧模型的大量醫學數據,可能是圖像、基因組、電子健康記錄等這些非常敏感的信息。


  基於醫院的數據進行訓練的人工智慧演算法有望獲得診斷、預防疾病和甚至治療疾病的能力。但在許多國家,由於法律原因,醫療記錄無法輕易共享並提供給演算法。這使得利用人工智慧在醫學圖像或數據中發現疾病的研究通常只能涉及相對較小的數據集,極大地制約了技術應用前景。


  美國加州大學伯克利分校一家創業公司「綠洲實驗室」(Oasis Labs),致力於探索利用雲計算和區塊鏈等技術確保用於研究的醫療數據等信息不被泄露或濫用。目前,斯坦福大學醫學院已經批准綠洲實驗室與相關的研究人員一道在該院開展實驗,測試他們的技術對解決上述兩難問題是否有效果。


  綠洲實驗室首先將患者的個人數據存儲在一款合作設計的安全晶元上,並保存在雲端。外部人員——希望以數據集訓練演算法的工程師們,可以在該系統(安全晶元+雲端)下,利用數據運行演算法並輸出結果。該系統也會在接收到數據訪問請求時,觸發基於區塊鏈的軟體上的智能合約系統,智能合約不僅會記錄數據的使用方式,還能檢查機器學習計算是否被正確執行。

  綠洲實驗室聯合創始人兼加州大學伯克利分校教授Dawn Song介紹說,該技術還可以推及人工智慧在其他領域的應用,例如財務記錄、個人購買習慣或網頁瀏覽數據。不過他表示,在探索其他領域之前,他們的計劃是先推動此技術在醫療領域的應用。


  儘管綠洲實驗室的技術探索展現出了潛力,但美國弗吉尼亞大學專門研究機器學習與安全問題的專家埃文斯仍持保守態度。他指出,在安全硬體中存儲數據也有失敗的風險。一旦硬體製造方遭遇攻擊,它所處理的數據就會面臨風險。並且,現在也沒有證據證明,區塊鏈一定就是可靠的技術。


  立法約束:讓合規應用有章可循


  在沒有好的技術措施解決問題之前,使用法規法律保護隱私和個人信息安全,是全球通用的做法。

  2018年5月,歐盟頒布的被稱為「史上最嚴」的《通用數據保護條例》(GDPR),就對企業獲取及使用數據的方式進行了嚴格的限定。GDPR要求經營者告知並獲得客戶同意才可記錄用戶搜索等記錄,且不能使用模糊、冗長的語言政策來獲取用戶數據使用許可等。並且,GDPR對違法企業的懲處力度也是空前的。


  中國科學院自動化研究所研究員曾毅認為,GDPR值得我國借鑒。雖然GDPR在實施初期,遭到很多企業質疑且難以推行,但隨著企業接受並按要求落實,他們將得到更多用戶的認可和信任。


  曾毅告訴《中國科學報》,如果人工智慧系統不能儘力確保個人數據的安全性,不但無法贏得用戶信賴,而且將觸犯相關法律。人工智慧的研發者、服務提供者、使用者都應充分了解有關個人數據安全的行業共識、規範、管理辦法、法律,以促進人工智慧的健康發展。


  「加快立法的同時,還應考慮我國國情,保護人工智慧的發展『土壤』。」國內智能設備體系安全服務提供商同餘科技創始人袁開國對《中國科學報》舉例說,比如要明確數據的所有權屬於用戶,企業不能非法使用、兜售用戶數據;但如果企業是為了更好地服務用戶,在經過用戶授權允許下,可以對用戶數據進行深層次分析,明確數據的使用權。


  「隱私保護是對公民基本人權的保護,也影響著國民經濟的發展。」中國社會科學院哲學研究所研究員、北京協和醫學院生命倫理學研究中心學術委員會主任邱仁宗在接受《中國科學報》採訪時表示,隨著技術的發展,人們的各種信息可以被輕易獲取。


  「我反對這種未經授權的『人肉搜索』。」邱仁宗表示,應該認真研究GDPR,開展由人工智慧專家、倫理學家、公眾代表、監管人員參與的個人數據保護研討會,儘快制定我國的專門法律法規。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新浪科技 的精彩文章:

變化的木星磁場 訴說著行星的哪些奧秘
科學證明了!玩手機使人焦慮,玩手機使人上癮

TAG:新浪科技 |