巴黎聖母院失火是911陰謀?YouTube的演算法闖禍了
作者 | 小智
圖片 | 刺客信條大革命
YouTube 演算法標記巴黎聖母院失火是 911 陰謀,亞馬遜人臉識別標記美國國會議員為罪犯,谷歌 AI 武器項目遭致廣泛批評。AI 發展了,後果呢?
1
巴黎聖母院失火,YouTube 演算法澆油
當地時間 4 月 15 日,法國巴黎聖母院發生火災,整座建築損毀嚴重。著火位置位於聖母院頂部塔樓,大火迅速將聖母院塔樓的尖頂吞噬,很快,尖頂如被攔腰折斷一般倒下。事故發生後,西方媒體很快在 YouTube 上直播起火的視頻。
然而在其中幾段視頻下面出現了一個奇怪的文本框:一段來自《大英百科全書》的關於 911 恐怖襲擊的片段。
YouTube 去年推出了這個文本功能,為的是打擊陰謀論的傳播,這其中就包括那些質疑 911 恐怖襲擊的言論。據了解,出現這個問題的原因是 YouTube 的演算法錯誤地把巴黎聖母院火災的煙霧標記為 2011 年的鏡頭,觸發了 911 恐襲標記的面板。
YouTube 發言人首先對巴黎聖母院失火表達了悲痛之情,隨後稱他們的演算法有時候會錯誤的調用,他們在相關視頻下關閉了該功能。YouTube 此前一直因極端和誤導視頻而飽受批評,尤以突發新聞話題的視頻為甚。儘管其已成為全球最大的視頻網站,但它一直難以使用軟體和人工審核來監督每天上傳的數百萬小時的視頻。
去年,YouTube 發布了這一文本功能,文本框內容均是從包括維基百科在內的可信網站上摘取的,為的是用確鑿的事實來抵消錯誤性視頻。YouTube 表示,每周會在網站的視頻下方顯示「數千萬」個文本面板。
但在這次全球性的新聞下,YouTube 的演算法徹底翻車,遭致了更多外界批評。當為了闢謠而發明的演算法出錯時,是否是另一種事實上的造謠呢?
2
三個例子,談談人工智慧
第一例:亞馬遜人工智慧識別將 28 名美國會議員判定為罪犯
2018 年 7 月,北加州美國公民自由聯盟(American Civil Liberties Union of Northern California)宣布,它對亞馬遜面部識別系統 Rekognition 進行測試,但發現該系統不精準。當該聯盟用國會議員照片做面部識別測試時,Rekognition 將其中 28 名國會議員識別成曾經被捕的罪犯。聯盟從「公開來源」下載 2.5 萬張警方拍攝的罪犯臉部照片(mugshot),然後將 535 位國會議員的官方照片交給 Rekognition 處理,問它在 2.5 萬張照片中是否有照片與國會議員匹配,Rekognition 給出了「有 28 張匹配」的結果。
Rekognition 是亞馬遜最具爭議的產品之一。這是一款在亞馬遜伺服器上運行的圖像識別 AI 軟體,用戶需要為使用該軟體處理的每張圖片向亞馬遜付費。它可以識別圖像或視頻上的文字、對象、場景、活動和人員。
而在此事件發生前,該產品就遭到包括亞馬遜用戶、民間組織、股東甚至亞馬遜員工在內超過 15 萬人的聯名抗議。雖然人臉識別只是一種輔助手段,誤報不可避免,但這仍舊讓普通民眾對於其的安全性、隱私性問題產生了巨大的懷疑。甚至有陰謀論稱:萬一亞馬遜這個人臉識別沒有出錯呢?
第二例:谷歌的 AI 武器爭端
谷歌曾與美國國防部合作開發軍用無人機項目 Maven,此舉遭致谷歌員工、高管、技術專家在內的強烈抵制,認為該項目有可能被五角大樓用來殺人,強烈抗議並呼籲谷歌退出該項目。
該項目在谷歌內部的反抗史將近一年,包括前谷歌雲首席科學家李飛飛在內的多位技術專家、高管發聲抵制,李飛飛稱:「我相信以人為中心的 AI 能以積極和慈善的方式讓人類受益,任何 AI 武器項目都違背我的原則。」
除李飛飛外,DeepMind 高管、Jeff Dean 等業界知名大牛同樣立場鮮明地投了反對票。最終,經過漫長的拉鋸戰後,谷歌發布了使用 AI 的七條原則與四條底線,其中包括不會將 AI 技術應用於開發武器,不會違反人權準則將 AI 用於監視和收集信息,避免 AI 造成或加劇社會不公等。
不過,谷歌也表示,將會繼續與政府和軍方展開 AI 合作,例如網路安全、培訓以及徵兵等領域。AI 武器的擔憂暫時鬆口氣了,但對谷歌與軍方 AI 合作的擔憂卻並沒有消散。而更進一步的擔憂,在電影里早就體現過了:
美國隊長 2 里的洞察計劃
第三例:自動駕駛面臨車禍時的兩難抉擇
如果一輛自動駕駛汽車必須在撞上障礙物、導致三名女性乘客死亡或在街上碾過一名兒童之間做出選擇,它應該選哪個?
即便是對於人類來說,這樣的倫理決定也異常艱難。通常在發生車禍前的一瞬間,人類一般只會通過直覺做出選擇。隨著自動駕駛技術的發展,在不久的將來肯定會出現類似的場景,這樣的兩難選擇,AI 會怎麼做?
在此前的一項調查中發現,人們普遍認為自動駕駛汽車應該保護更多的人,即使這意味著犧牲車上的乘客。但他們同樣表示,他們不會購買一輛按照這種程序設計的自動駕駛汽車。這告訴我們什麼?
近期高居頭版頭條的梅賽德斯·賓士公司此前曾表示,如果他們只能救一個人,他們會救司機而不是行人。公眾的憤怒讓他們收回了這一聲明。
一位參與谷歌自動駕駛汽車項目的工程師表示,這樣的調查結果並不重要,因為在這些情況下,真正的答案幾乎總是「猛踩剎車」。但他同時表示,隨著自動駕駛技術的發展,路況越來越複雜,這樣兩難的選擇題始終會出現在人類面前,這樣的場景下,AI 做出的選擇總是基於人類的設計,但如果程序出錯,面臨的可能就不是犧牲一方拯救另一方的悲劇,而是兩敗俱傷的人間慘劇。
3
人工智慧,想說愛你不容易
歷史上,每次的技術革命都會帶來一定程度的恐慌。從 18 世紀的工業革命到後來電的出現引起的一系列社會變革,再到電器的不斷湧現,人們總會有失業、人身安全等方面的擔心。
而人工智慧從一開始就出現就被大家過度猜疑。在 1958 年,第一個神經網路系統 Perceptron 出現後,有報紙就認為機器在不久就會有自己的意識。而「人工智慧之父」John McCarthy 曾在上世紀 60 年代提出,人工智慧系統會在 10 年內實現。然而,十年之後,人工智慧領域進入了所謂的「冰封期」。
直到最近,人工智慧才又再度變得火熱。一方面,計算機性能的飛速提升為人工智慧演算法提供了基礎的支撐。另一方面,就是大數據的出現。大數據提供的海量數據讓機器學習的效率成倍提升。DeepMind 團隊 AlphaGo 在圍棋方面的成功就得益於其前期大量的訓練。
隨著人工智慧技術的第三次爆發,人工智慧威脅論的觀點又再次喧囂。吳恩達認為機器智能趕超人類在短時間內並不現實,而 MIT 物理學家 Tegmark 則認為機器不需要本身就是邪惡的才會對人類構成威脅,40 年的時間足夠達到這種程度。
Facebook 人工智慧專家 Yann Lecun 表示這(AI 威脅論)還是一個非常遙遠的事情。他認為,能夠威脅到人類存在的機器智能基本還存在於科幻小說中。而且,機器的行為是受人類所設計的演算法控制的。無論未來如何,這都是我們人類自己創造出來的。
現階段值得擔憂的不是 AI 威脅論,反而是其對社會職業的影響。以波音公司為例,相比於上世紀 90 年代,該公司的僱員數量減少了三分之一,生產效率卻提高了 20%。從 2000 年到 2015 年,僅美國就有大約 500 萬個職位消失,這其中大部分已經被機器所取代。人工智慧所帶來的影響將堪比蒸汽機,而機器智能所帶的影響還不僅僅如此。
谷歌去年發布的 Cloud AutoML 產出了一系列機器學習代碼,其效率甚至比研究人員自身還要高。該系統設計的目的就是為了讓 AI 自己設計 AI。現在的 AI 除了會自己寫代碼,還會自己修復 Bug。也許值得我們擔憂的,該是程序員會不會被 AI 取代了。
小彩蛋
因巴黎聖母院失火,育碧旗下《刺客信條大革命》限時免費。該遊戲發佈於 2014 年 11 月,以精確刻畫法國首都巴黎著稱。在巴黎聖母院失火之後,這款精確還原巴黎聖母院的遊戲出人意料在 Steam 等遊戲商店進入到銷售榜前列。現在,開發商育碧通過其 Twitter 賬號宣布遊戲限時免費,宣布會捐款幫助巴黎聖母院的修繕工作。玩家可以通過育碧官網或客戶端領取遊戲,領取時間是從 4 月 17 日到 4 月 25 日。
沒有去過巴黎聖母院的同學,現在可以入手了。(育碧看到請打錢。)
今日薦文
※首個國人主導Apache頂級項目,Kylin的開源之路與經驗分享
※詳解 OPPO「明星級」技術能力:Breeno和ARunit
TAG:InfoQ |