當前位置:
首頁 > 新聞 > 深度學習即將非法?歐盟《一般數據保護條例》五月生效

深度學習即將非法?歐盟《一般數據保護條例》五月生效

《歐盟一般數據保護條例》(General Data Protection Regulation,GDPR)是 20 年來數據隱私條例的最重要變化,它將取代《歐盟個人資料保護指令》95/46/EC,並將協調全歐洲的數據隱私法律,為所有歐盟民眾保護和授權數據隱私,並將重塑整個地區的數據隱私保護形式。在 GDPR 中,有關「演算法公平性」的條款要求所有公司必須對其演算法的自動決策進行解釋,這意味著目前大量 AI 應用依賴的深度學習演算法不再符合法規。

GDPR 的重點內容,以及它對商業的影響,可在其官方網站上找到:https://www.eugdpr.org/

幾個月後,《一般數據保護條例》(GDPR)將生效,這被認為是對人工智慧應用於商業的方式的一次徹底整改。2018 年 5 月 25 日,GDPR 將在歐盟全面實施。

113 天后就要到來的 Deadline 引起了 AI 社區和技術巨頭的爭論,他們現在正在努力滿足歐盟的數據隱私和演算法公平性原則。而對於歐盟公民來說,GDPR 統一數據保護法規,增加技術公司在收集用戶數據時的責任,從而保護了公民權利。

深度學習即將非法?歐盟《一般數據保護條例》五月生效

在 GDPR 的網站上有一個時鐘:再過 113 天該條例就將在全歐盟生效了。

深度學習即將非法?歐盟《一般數據保護條例》五月生效

GDPR 即將實施引起了很多人工智慧學界人士的關注,《終極演算法》作者,華盛頓大學教授 Pedro Domingos 在社交網路中說道:「自 5 月 25 日起,歐盟將會要求所有演算法解釋其輸出原理,這意味著深度學習成為非法的方式。」

即將到來的規定將歐洲分成兩大陣營:擁抱數據隱私和演算法公平性原則的社會公民;對此不滿的技術巨頭,因為它們將面臨新的挑戰,如需要徵求用戶同意、處理 AI 的黑箱問題,這些問題可能最終導致 AI 相關應用不再合法,違者將接受全球營業額 4% 的罰款。

GDPR 要點概述

深度學習即將非法?歐盟《一般數據保護條例》五月生效

規定針對從歐盟公民處收集數據的企業:該規定不限於總部在歐盟地區的企業,而是覆蓋到從歐盟公民處收集數據的所有組織。GDPR 要求此類企業反思其條款和條件(解釋該公司如何使用個人數據來銷售廣告)中的內容,強制企業遵循 Privacy by Design 原則。

數據轉移權:該規定聲明,用戶可要求自己的個人數據暢通無阻地直接遷移至新的提供商,數據以機器可讀的格式遷移。這類似於在不丟失任何數據的情況下更改移動運營商或社交網路。對於谷歌、Facebook 等名副其實的數據挖掘公司和較小的數據科學創業公司而言,這就像是敲響了喪鐘,當用戶不再使用該公司產品時,它們將會丟失大量數據。

被遺忘權:GDPR 第 17 條強調,每個數據主體有權要求數據控制者刪除個人數據,並且不能過分延長數據留存時間,控制者有義務遵循該規定。這對以 cookie 形式收集數據、從定向投放廣告中獲取收益的技術巨頭而言是一項巨大損失。

演算法公平性:自動決策的可解釋權(The Right to Explanation of Automated Decision)指出數據主體有權要求演算法自動決策給出解釋,有權在對演算法決策不滿意時選擇退出。例如,如果貸款申請人被自動決策拒絕時,有權尋求解釋。對於技術公司而言,這是對人工智慧的嚴重限制,將大幅減緩 AI 技術的發展。

AI 的高性能 vs 難解釋性難題

深度學習即將非法?歐盟《一般數據保護條例》五月生效

在這裡,我們不想深入研究歐盟指導方針的本質,但有必要指出目前被廣泛應用的人工智慧技術所面臨的最大批評——深度學習及其不可解釋性(即黑箱狀態)。這可能會導致任何 AI 公司無法開展已有業務,甚至會被認為非法。目前,人工智慧專家和科技公司從數據中獲益,但又不斷聲稱這些演算法因為架構的複雜性而難以解釋其輸出的生成原理。

著名學者 Dr. PK Viswanathan 曾對人工神經網路的黑箱問題進行過研究。根據他的介紹,人們普遍認為神經網路是一個黑箱,但其機制並非完全不可解釋,仍有一些分析其原理的方法。

例如,對於預測和分類問題,與 logistic 回歸、隨機森林等其他基於統計的有監督技術不同,神經網路是非參數、非線性的複雜關係模型,被認為具備泛逼近性。神經網路被用於所有分類和預測問題。神經網路的一些常見應用甚至包括:決定是否購買金融市場的產品,以及對風險進行判斷。

人工神經網路的拓撲學

我們討論兩個隱藏層的多層感知機(一種前饋人工神經網路)。兩個隱藏層的多層感知機因其預測準確率而知名。在兩個隱藏層的多層感知機中,有兩個輸入神經元、兩個隱藏層和四個節點,然後給出輸出。網路初始化權重、偏置項、數值,激活函數可設定為 sigmoid 函數(或 logistic 函數),你可以用前饋方法改變權重的值。

在其架構中,隱藏層和黑箱點以及神經網路學習訓練數據的方式密切相關,這正是對其主要批判的來源。

神經網路的推理方法是通過迭代地最小化損失函數不斷改變權重的值。這被稱為黑箱難題,它可以逼近任何函數,但對預測變數和輸出之間的關係不能給出任何解釋,PK Viswanathan 說。在監督學習問題中,人們可以解釋 x 和 y 之間的準確關係,但無法捕捉神經網路生成這些關係的運作方式。

人們對於神經網路的最大批判是:

  1. 它缺乏可解釋力,我們無法確定隱藏層內部發生了什麼。但是神經網路在近似值和精確度上普遍得分較高。

  2. 在現實世界中很難解釋摘要權重(synoptic weight),但是在傳統技術中卻不是,這進一步加深了黑箱難題。

解決深度學習的黑箱難題

深度學習即將非法?歐盟《一般數據保護條例》五月生效

現在,許多研究者已經致力於解釋神經網路如何做出決策。其中一些方法如下:

LIME:Local Interpretable Model-Agnostic Explanations 更廣為所知的名稱是 LIME,它是一個涉及以多種方式操作數據變數以查看什麼把分值提高的最多的技術。在 LIME 中,局部指的是局部保真度,即解釋應該反映分類器在被預測實例「周圍」的行為。這一解釋是無用的除非它是可闡釋的——也就是說,除非人可以理解它。Lime 可以解釋任何模型而無需深入它,因此它是模型不可知論的。

DARPA 的可解釋性 AI(Explainable AI):現在,DARPA 創建了一套機器學習技術來產生更可解釋的模型,同時維持一個高水平的學習表現。可解釋性 AI 可以使人類用戶理解和管理即將到來的 AI 夥伴,其核心優勢是新技術可以潛在地迴避掉對額外層的需求。另一個解釋組件可以從訓練神經網路關聯帶有隱藏層節點的語義屬性——這可以促進對可解釋功能的學習。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

伯克利AI分散式框架Ray,兼容TensorFlow、PyTorch與MXNet
谷歌正式發布TensorFlow 1.5,究竟提升了哪些功能?

TAG:機器之心 |