談AI隱私泄露問題:理解AI,AI「理解」人類同樣重要
大家知道,谷歌參與的美國軍事AI項目(Project Maven),一直遭受著包括公司內部科技巨頭在內的上千名員工的抗議,事件持續發酵,甚至蔓延到公眾。隨後新任谷歌AI負責人Jeff Dean表示:「谷歌不應該涉足自動化武器開發業務。」本月初,谷歌宣布停止續簽Project Maven的合同。
而今天,谷歌終於正式亮明態度,其CEO桑德爾·皮查伊(Sundar Pichai)發布了谷歌使用AI的七項原則。除了提到不會將AI技術應用於開發武器外,《原則》還包括:不會違反人權準則將AI用於監視和收集信息;避免AI造成或加劇社會不公等。
用皮查伊的話說就是:「AI能幫助人們完成許多事情,這是我們致力於AI研發的原因。但這種強大的技術也會帶來問題。」
Google CEO 桑德爾·皮查伊(Sundar Pichai)
今天,小編就結合近期發生的一系列事情,和大家探討下AI當前所面臨的首要問題:隱私泄露。
近期AI隱私泄露事件回顧
繼「Facebook泄露門事件」後,近日,臉書又因為隱私泄露事件再次登上頭條。然而,無獨有偶,AI隱私泄露事件時有出現。小編先帶大家簡單回顧下。
Facebook AI
的「道與魔」:幫助與出賣
據悉,Facebook正在嘗試使用AI和模式識別等技術,來識別具有自殺傾向的用戶。Facebook 的新型「主動檢測」AI技術,可掃描所有帖子中潛在的自殺念頭,並在必要時將有關心理健康的資源,發送給存在自殺風險的用戶或他們的朋友。甚至,會聯繫當地的緊急熱線,以幫助用戶。
據一項數據顯示,全球每40秒便有一人自殺,自殺已成為青少年死亡的第二大原因。就這一點來考慮,Facebook利用AI技術提前預防用戶自殺,是在服務大眾,做著有意義的事。而僅出於這一點,人們不會隨意地將其與隱私泄露聯繫在一起。然而,「迫不及待」打臉的卻是Facebook自己,沒錯,又一次打臉。
繼「Facebook泄露門事件」後(用戶數據被泄露,並被用於總統大選期的定向宣傳),近日,其又發生一件隱私泄露事件。
Facebook如何用AI來精準投放廣告
據悉,美國媒體The Intercept最新獲取了一份Facebook機密文件,透露出Facebook提供給廣告主的特殊服務:忠誠度預測。這是一項基於AI的服務,即預測用戶的未來行為,作為廣告投放的依據。
而「忠誠度預測」依靠的數據有:用戶位置、設備信息、所連接Wi-Fi網路的情況、觀看的視頻記錄、親朋好友的各種細節,甚至是和朋友聊天的內容。這些數據,無疑已經觸及到了用戶的底線。
然而,與之相比,世界範圍內的AI隱私泄露,似乎更無底線的樣子?
無獨有偶,
AI隱私泄露不止於
Facebook的AI隱私泄露事件,之所以擴散到被大眾快速知道,在於其知名度以及過往的黑歷史。然而,AI隱私泄露並非獨此一家。
去年5月,谷歌旗下的DeepMind獲取了,英國皇家慈濟NHS信託基金運營的三家醫院的160萬病人的NHS(英國國家醫療服務體系),其中包括HIV感染狀況、過去的吸毒量和墮胎信息等私密數據。
就國內而言,同年9月也發一件重大事件:浙江紹興警方查封了市場上最大的打碼平台「快啊」平台,並公布該平台利用AI技術,竊取了10億多組公民個人信息。據悉,「快啊」平台有一個破解、竊取、販賣和盜用個人信息,以實施詐騙的完整鏈條,其中AI技術運用在識別驗證碼這個環節。
再說近日,微博用戶「互聯網阿超」曬出一張截圖顯示:其某條微博點贊量超過3000萬,而他的微博粉絲卻只有1萬人。這正是因為微博的Timeline不再只是基於關注,而是與AI演算法結合起來。每一個內容都有被演算法推薦,進而有曝光和爆發的機會。
但這也意味著隱私泄露的可能。因為部分用戶可能主觀上,並不想讓自己發表的言論被更多人知道,甚至隨著信息的擴散,帶來的一些後續事情,還會影響到其正常生活。
而上述提到的幾例關於AI隱私泄露的事件,讓人不得不思考這麼一個問題:我們能否讓AI服務於人們的生活與工作的同時,又能避免其犯錯,例如泄露用戶隱私。
其實理解AI,和AI「理解」人類,同樣重要
首先要肯定
的是,隨著技術的發展,
AI
在人們工作與生活中扮演著越來越多、越來越重要的角色,有存在的合理與必然性,
其
所帶來的價值
無疑
是巨大的
。例如,
提高數據處理效率,改變行業等。
因而對於
AI
隱私泄露
的
這一
隱患
,人們只能正視、想辦法解決問題,而非漠視、逃避或其他。
而
要提高工作
與生活
的效率,觀察並詳細記錄
用戶
日常生活中的行為表現,收集
、
整理分析
,並
管理
這些信息,也是
AI
需要
做的事。
那麼
,
用戶的隱私數據該如何保護?
對此,國內外部分企業,都在不斷地努力嘗試,以解決這方面問題。
不斷成立的
AI倫理委員會:透明性是關鍵
2016年微軟成立AI倫理委員會「AETHER」,把全公司的產品部門、業務部門,還有更重要的法務部門集合在一起,以討論和解決AI相關問題。
同年,亞馬遜、微軟、谷歌、IBM和Facebook,聯合成立非營利性的人工智慧合作組織「Partnership on AI」(蘋果於2017年1月加入該組織)。該聯盟為開發AI系統的公司,提供了一個溝通平台,讓各方在一些有可能對全人類,造成巨大損害的問題上,尋求共同點。
然而,很明顯,僅僅建立AI倫理委員,並不能消除人們對AI隱私透露等問題的擔憂。因為實際上,除了知道該委員會成立了,具體的人們一無所知。例如,其究竟研究哪些工作?解決了哪些問題?有什麼重要的成果?似乎一直是被諱莫如深的(或者說,沒看到實效)。
對此,小編認為,AI相關技術和工作進展的透明性,也很重要。而麻省理工學院媒體實驗室的總監伊藤穰的看法,或許道出了關鍵:「需要將AI領域內發生的事情,傳達給關注AI未來的人。如果沒有對AI技術的理解,律師、決策者和一般公眾,就很難真正理解或想像AI的可能性和風險。」當然,也就無法更有效地避免或解決,類似AI隱私透露等問題。
知乎演算法機器人
「瓦力」:機器學習的可控性不僅僅是國外,國內對解決
AI
隱私泄露等問題也在尋求解決之道。例如,
知乎
的
演算法機器人
「瓦力」,
可實時高效處理多種場景,包含貼標籤、辱罵和歧視等各種不友善行為,
努力
減少低質和無關內容對普通用戶的干擾。
而華為很早就開始布局,智慧手機雲+端的隱私防護。發布麒麟970等人工智慧晶元。擁有強大的AI運算性能,並提供一整套的用戶隱私保護體系。華為消費者業務CEO余承東曾表示:「未來AI在終端上的實現,必須要通過端雲協同。」
在此,不得不提及霍金曾提出的:「AI的真正風險不是惡意,而是能力。一個超級聰明的AI會非常擅長實現它的目標。如果這些目標與我們的目標不一致,我們就有麻煩了。」
上述這些,多少都體現出AI演算法的重要角色。要知道AI是依賴於機器學習(深度學習)
演算法的,是需要大規模訓練數據的。那麼,
如何搜集數據、提供怎樣的數據,最終賦予
AI怎樣的「判斷力」,讓其更好地理解人類,避免無意識地犯錯,減少隱私泄露、歧視等問題的發生,也是應當被著重考慮的問題
。
面對當前
AI所面臨的隱私泄露等問題,小編認為,當前最能理
解
AI的,還要數運用這一技術的公司及其技術人員,因而相較於普通人,他們無疑更應當承擔起讓
A
I
更好地
「理解」
人類的責任。
正如扎克伯格在聽證會上所說的:「我們不僅僅應當研發和利用AI技術,還有責任更好地正確運用AI技術。」相信大家和小編一樣期望,更多的AI公司能有自己的「原則」(如同Facebook這次所公布的《原則》),並能真正堅持這些原則,讓AI更好地為人類服務。
本文屬VRPinea原創稿件,轉載請洽:
brand@vrpinea.com
※騎勇大戰4.0版本來襲,VR觀賽體驗嘗試一下?
※HHI帶來全新VR視頻編解碼器,夏普將展示其8K生態系統
TAG:VRPinea |