當前位置:
首頁 > 科技 > 便利伴隨著擔憂 「刷臉」會不會刷走安全

便利伴隨著擔憂 「刷臉」會不會刷走安全

人工智慧的應用帶來便利,也引發數據濫用、隱私侵犯的擔憂

「刷臉」會不會刷走安全(解碼·人臉識別技術)

隨著數據的積累、計算機算力的躍升和演算法的優化,人工智慧正在讓生活變得高效。語音識別、圖像識別使身份認證更可信賴,短短几秒就能證明「你就是你」;智能診療和自動駕駛,更讓人們看到了戰勝疾病、減少事故的新機會;人工智慧還可以輕鬆戰勝圍棋高手,寫出優美的詩句……其自主性和創造性正在模糊人和機器的分野。

但是,當隱私侵犯、數據泄露、演算法偏見等事件層出不窮時,人們又不得不反思:人工智慧的持續進步和廣泛應用帶來的好處是巨大的,為了讓它真正有益於社會,同樣不能忽視的還有對人工智慧的價值引導、倫理調節以及風險規制。

「刷臉」應用更廣泛,對隱私權的威脅值得重視

「刷臉」進站、「刷臉」支付、「刷臉」簽到、「刷臉」執法……人臉識別技術正走進更為廣闊的應用場景,與指紋、虹膜等相比,人臉是一個具有弱隱私性的生物特徵,因此,這一技術對於公民隱私保護造成的威脅性尤其值得重視。「人臉圖像或視頻廣義上講也是數據,如果沒有妥善保管和合理使用,就會容易侵犯用戶的隱私。」中國社會科學院哲學研究所研究員段偉文說。

通過數據採集和機器學習來對用戶的特徵、偏好等「畫像」,互聯網服務商進而提供一些個性化的服務和推薦等,從正面看是有利於供需雙方的一種互動。但對於消費者來說,這種交換是不對等的。就頻頻發生的個人數據侵權的事件來看,個人數據權利與機構數據權力的對比已經失衡,在對數據的收集和使用方面,消費者是被動的,企業和機構是主動的。段偉文表示,「數據實際上成為被企業壟斷的資源,又是驅動經濟的要素。」如果商家只從自身利益出發,就難免會對個人數據過度使用或者不恰當披露。

「大數據時代,個人在互聯網上的任何行為都會變成數據被沉澱下來,而這些數據的彙集都可能最終導致個人隱私的泄露。」湖南師範大學人工智慧道德決策研究所所長李倫認為,用戶已經成為被觀察、分析和監測的對象。

演算法應更客觀透明,要避免歧視與「殺熟」

在信息爆炸的時代,數據的處理、分析、應用很多都是由演算法來實現的,越來越多的決策正被演算法所取代。從內容推薦到廣告投放,從信用額度評估到犯罪風險評估,演算法無處不在——它操作的自動駕駛或許比司機更加安全,它得出的診斷結果可能比醫生更準確,越來越多的人開始習慣一個由演算法構建的「打分」社會。

作為一種信息技術,演算法在撥開信息和數據「迷霧」的同時,也面臨著倫理上的挑戰:利用人工智慧來評估犯罪風險,演算法可以影響刑罰;當自動駕駛汽車面臨危險,演算法可以決定犧牲哪一方;應用於武器系統的演算法甚至可以決定攻擊的目標……由此引發了一個不容忽視的問題:如何確保演算法的公正?

騰訊研究院法律研究中心高級研究員曹建峰認為,即使作為一種數學表達,演算法本質上也是「以數學方式或者計算機代碼表達的意見」。演算法的設計、模型、目的、成功標準、數據使用等,都是編程人員的主觀選擇,偏見會有意或者無意地嵌入演算法,使之代碼化。「演算法並不客觀,在演算法決策起作用的諸多領域,演算法歧視也並不鮮見。」

「演算法決策多數情況下是一種預測,用過去的數據預測未來的趨勢,演算法模型和數據輸入決定著預測的結果,因此這兩個要素也就成為演算法歧視的主要來源。」曹建峰解釋說,除了主觀因素以外,數據本身也會影響演算法的決策和預測。「數據是社會現實的反映,數據可能是不正確、不完整或者過時的,訓練數據本身也可能是歧視性的,用這樣的數據訓練出來的演算法系統,自然也會帶上歧視的烙印。」

2016年3月,微軟人工智慧聊天機器人Tay上線,在與網民互動過程中,很短時間內就「誤入歧途」,集性別歧視、種族歧視於一身,最終微軟不得不讓它「下崗」。曹建峰認為,演算法傾向於將歧視固化或放大,使歧視長存於整個演算法之中。因此,如果將演算法應用在犯罪評估、信用貸款、僱傭評估等關係人們切身利益的場合,一旦產生歧視,就可能危害個人乃至社會的利益。

此外,深度學習還是一個典型的「黑箱」演算法,可能連設計者都不知道演算法如何決策,因而要在系統中發現是否存在歧視和歧視根源,技術上也較為困難。「演算法的『黑箱』特徵使其決策邏輯缺乏透明性和可解釋性。」李倫說,隨著大數據「殺熟」、演算法歧視等事件的出現,社會對演算法的質疑也逐漸增多。政府和企業在使用數據的過程中,必須提高對公眾的透明度,讓選擇權回歸個人。

加強核查監管,加大對數據濫用等行為的懲戒力度

2017年7月,國務院印發《新一代人工智慧發展規劃》(以下簡稱《規劃》)。《規劃》強調,促進人工智慧行業和企業自律,切實加強管理,加大對數據濫用、侵犯個人隱私、違背道德倫理等行為的懲戒力度。

「雖然『刷臉』的應用越來越多,但人工智慧目前仍處於起步階段,需加大對數據和隱私的保護力度,關注和防範由演算法濫用所導致的決策失誤和社會不公。」在個人數據權利的保護方面,段偉文建議,應促使數據交易各方對自己的行為負責,讓每個人知道自己的數據如何被處理,特別是用於其他用途的情形,減少數據濫用,讓人們清楚知道自己的「臉」還是否安全。

段偉文認為,要進一步加強人工智慧的倫理設計,對演算法的理論預設、內在機制與實踐語境等進行全流程追問與核查,從演算法決策的結果和影響中的不公正入手,反向核查其機制與過程有無故意或不自覺的曲解與誤導,揭示存在的問題,並促使其修正和改進。

在曹建峰看來,應對人工智慧帶來的倫理問題,一是要構建演算法治理的內外部約束機制,將人類社會的法律、道德等規範和價值嵌入人工智慧系統;二是在人工智慧研發中貫徹倫理原則,促使研發人員遵守基本的倫理準則;三是對演算法進行必要的監管,提升演算法自身的代碼透明性和演算法決策的透明性;四是針對演算法決策和歧視以及造成的人身財產損害,提供法律救濟。

「我們生活在一個人機共生的時代,人類與機器之間勢必將發生各種衝突和矛盾,僅靠法律和制度很難完全解決。」李倫表示,人們還應努力提升自身的科學素養,主動維護自身的權利,社會也應儘快建立討論人工智慧倫理問題的公共平台,讓各方充分表達意見,促進共識的形成。(本報記者 谷業凱)

科普百分百·助力科普中國,讓科學知識在網上和生活中流行起來。溫馨提示:以上為科普百分百網上閱讀所瀏覽內容,轉載分享只為知識傳播和學習宣傳,本文內容僅代表原作者觀點,如有意見建議,請私信留言,我們會及時處理。歡迎關注,謝謝。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科普百分百 的精彩文章:

小心!埃博拉病毒可潛伏一年以上
長期待在空調房,愛流鼻血

TAG:科普百分百 |