黑爪:得給AI這熊孩子立個規矩
文 | 黑爪
經過了歷史上幾波起伏之後,人工智慧這一輪似乎是動了真格。新聞里每天都有他們的影子,而社會的反應大抵有兩類:因「夢想成真」而升起的興奮和期待,以及對「人工智慧威脅」的憂慮和擔心。
從沃森(IBM智能系統Watson)在智力遊戲Jeopardy!中取勝,阿爾法狗在圍棋上戰勝人類,到今年一月利布拉特斯(Libratus,卡耐基梅隆大學研製的一款人工智慧系統)在德州撲克賽中碾壓人類,尤其令人驚訝的是,這傢伙連使虛招詐唬這種事都會,而且從訓練過程看,這個本事基本上是無師自通,無人車也從傳說中來到人們眼前,去年聖誕節前一輛優步無人車在舊金山當代藝術博物館前闖紅燈的錄像在網路上瘋傳,被人戲稱為「AI忙于欣賞當代藝術沒注意到紅燈」……
就像一個活力無邊,創造力無窮,然而破壞力還有限的熊孩子,一下子長成了不容小覷的少年,高出你一頭,站在目瞪口呆的大人面前。它們跟現實生活中的熊孩子一樣,時而挑釁成人,時而內鬥。
▍(一)維基機器人大戰
維基百科於2001年上線,它的出現使得知識點不再成為稀有物資,每個人都可以憑藉它變得學富五車,從中華白暨豚的分布或瀕危過程,到捲入奧斯卡頒獎烏龍的老演員華倫·比提年輕時究竟有多風流,所有的問題都可以在一個點擊間輕鬆解決。
我們並不知道的是,維基頁面的背後卻隱藏著一場曠日持久的機器人無聲血戰。
維基從一開始,成百萬的辭條文章便是經由一系列軟體機器人在維護,它們的主要任務是糾錯,添加指向相關頁面的鏈接等日常瑣事。起初,機器人很少,它們雞犬相聞,互不往來;漸漸地,機器人數字出現爆炸性增長,終於導致了與它們的存在是用以維繫辭條準確性這一初衷南轅北轍的結果。它們相互之間接觸越多,就越深地陷入戰爭:撤銷對方所做的編輯,修改對方添加的鏈接,有些衝突甚至激烈到必須讓最好戰的幾個機器人出局才能平息。
老實說,這聽起來像一個開得挺大的腦洞,逗。
這些被叫做維基機器人(Wiki Bots)的程序本身非常簡單,基於相同的開源技術,它們被編製出來僅僅是為了將維基辭典維護得更好。維基本身就是一個維基機器人組成的生態系統,4千萬個辭條,293個語種,你不可能指望所有的細微修改和維護都由人類來執行:加鏈接、去惡意行為、給侵權內容插旗、檢查拼寫,諸如此類。這麼一想,它們原本是一些極其乏味的傢伙,很無趣,壓根不會想到它們之間會打起來,還打得不可開交。
無論這聽起來多滑稽,重要的是,或者說讓人驚出一身冷汗的是,這些人格化了的機器人被放入互聯網叢林中自由遊盪,它們製造了一半的網路流量,而我們對它們在叢林中的行為,很長時間以來卻並不知情。
這件事是被牛津大學互聯網研究所和阿蘭·圖靈研究所的一組研究人員,在分析維基成立後的前十年里機器人間衝突現象時,查看了13種語言所編寫辭條的修改歷史而發現,並於2017年2月底發表在開放性學術刊物PLOS ONE上。這些記錄顯示了機器人如何不厭其煩地一次又一次撤銷其他機器人的編輯。「機器人之間的爭鬥,持久性遠勝於人類,」牛津大學互聯網研究所的塔哈·亞瑟爾說,「人的怒火通常幾天就能平息,這些機器人得要好幾年才能消氣。」
最著名的戰役之一,發生在一個叫Xq機器人(Xqbot)和一個叫黑暗機器人(Darknessbot)之間,他們在2009年到2010年兩年中,一共因為3,629 個辭條起了爭端。其間Xq機器人撤消了黑暗機器人所做的2,000次編輯,而黑暗機器人撤消了Xq的 1,700 多條修改以資報復。這二位征戰涉獵廣泛,從古希臘的亞歷山大大帝,一直打到台灣的板橋區話題。
另兩名鬥士,一位叫塔奇克馬(Tachikoma),名字來自上世紀九十年代日本科幻片《攻殼機動隊》(Ghost in the Shell)中的一個人工智慧,它與羅斯機器人(Russbot)從希拉里的2008年競選,到英國的人口統計,一共就3000多個辭條,互撕千餘回合。
如此廝殺,你本能地會以為他們在為理想而戰,為光榮而戰,或者為意識形態里某個高大上的理由而戰,然而從統計數據看(截至2017年1月31日),大多數機器人為之浴血奮戰的熱門話題偏偏是這些:便便(Feces,一共被改了1445次,以下數字均代表被修改的次數),陰道(Vagina,1404),肥(Fat,1322),性(Sex,1309),白痴(Idiot,1305),智障(Intellectual disability,或者也可以叫腦殘?1297),美國(America,1280),拉屎(Defecation,1266),牛逼(Awesome,1254),中國人(Chinese People,1234)……
除了話題和辭條差異外,不同語種也表現不一樣。德語的維基機器人最友愛,十年內平均每「人」撕逼24次;葡萄牙語機器人最火爆,平均撕逼率達185次;英語機器人撕法細膩,來回往複,然數量不低,平均每「人」105次。
從程序的複雜程度上來看,維基機器人只是人工智慧世界裡的藍領基礎工人。就連這些只配備了最簡單演算法的,並無惡意的二貨熊孩子,一旦離開大人監管(實驗室)而外出謀生,面對略有差異的自然環境,其結果已經如此不可預料,那更加發達,更加強大聰明的高級AI呢?
我們通常更關心的是,AI將會對人類怎樣;而從維基機器人,以及本系列上一篇文章(《人類的弱點AI都有》)所討論的智能體這幾個例子看,AI系統之間彼此會怎樣,事實上遠比我們以為的更值得思考,也更有趣。正如牛津大學及圖靈研究所維基機器人大戰的研究小組所說,「對我們這個數字小寵物的生命以及進化,眼下我們還知之甚少。」
▍(二)AI草根戰假新聞
先澄清一下,眼下「假新聞」一詞有兩個含義:一是原本是事實,但不巧成為美國總統面臨的政治難題,而被冠以這個名稱;一是確實就是假的、編造出來的事實。本文所指,均為後者。
舉一個假新聞的例子,去年11月,美國德州一位叫艾瑞克·塔科爾的35歲男子在推特上發了一張照片,照片上是幾輛巴士,文字說明稱:車裡面裝的都是花錢收買了去抗議候任總統的假抗議者。艾瑞克既不是大v,也不是名人,他的推特粉絲只有區區40個,這條推文卻立刻就火了,推特轉發1萬6千次,臉書轉發35萬次,川普和他的支持者當然也參與了這一轉發大軍。後來證明沒有這樣幾車被收買的抗議者,這件事整個是編造的。
但重要的是,這個消息抵達了近百萬人,遠超大多數傳統媒體能夠達到的傳播效率。
責難雪片般落到技術公司的頭上,臉書首當其衝,推特、谷歌也無一倖免,公眾認為他們對假新聞的流行負有責任,因為他們的演算法直接關係到,哪些人可以讀到這樣的新聞。有人把假新聞現象與個性化搜索導致的過濾泡聯繫在一起,在這樣一個動態互動系統中,用戶只會收到他們可能會點擊,會評論,或者會點贊的內容。換句話說,就是他們只會看到跟他們預設立場一致,他們願意相信的內容。
當整個社會被一本字典(牛津)用一個合成詞「後真相」(post-truth)來吐槽的時候,很大程度上說明,這整個社會真的是弄砸了。真相和謠言真假莫辨,無論是艾瑞克無心所致,還是巴爾幹少年用SEO工具武裝起來的生財之道,總之這個社會是被我們弄砸了,病了,病急亂投醫,最時髦的是投奔萬能的AI。AI你不是下贏了圍棋,打贏了德撲,還可以把脈診病,聽音辨詞嗎?對付個區區假新聞,一定行。
許是無知者無畏,整個行業對此寂然無聲時,接招的卻是AI屆的一位草根人士,卡耐基梅隆大學的一名職員迪恩·帕墨婁(Dean Pomerleau)。他先是義憤填膺地公開譴責機器學習屆大佬,臉書AI部門頭面人物彥·樂康(Yann LeCun)的無所作為;接著更是「啪」一聲拍出兩千美元來,拉起了一個擂台,有獎鑒別假新聞競賽,Fake News Challenge。
帕墨婁的精神是可嘉的,不僅投資了時間,更有自己的職業聲譽。但是不久他便意識到自己以及這個競賽的過於天真。事實上,他很準確地用AI已漸入創造性領域這個事實——例如AI可以生成視頻、音頻、作曲、寫文——來推斷:不久的將來,我們將更難分辨眼前所見一切之虛實,也就是說,AI就能夠生成假新聞。既如此,AI就也能治假新聞。這顯然是一個推理環節中漏洞百出的邏輯結論。他更以人們已利用智能過濾器加內容分析和自然語言處理的方式成功地分類了垃圾郵件為例,來證明AI戰勝假新聞不應該是一件遙遠未來的事。
事實真的這樣美好嗎?自由女神身高几何,魯迅名字叫周樹人,這些是顯而易見的事實;可是還有一些不那麼顯而易見的,信息源需要保密,有些被刻意掩蓋,有些索性公開抵賴,還有些是諷刺、反話、隱喻,這需要對這個世界有多麼深刻而微妙的理解才能做出正確的判斷啊。
讓我們去擂台賽網站(http://www.fakenewschallenge.org/)看看,從競賽規則對問題的定義、系統的輸入和輸出來分析,為什麼說帕墨婁圖樣圖森破。
輸入為一個字元串,來自一句新聞聲明或標題;
輸出為一個四元組:
布爾虛假指針(,註:布爾是只有0,1兩種值的數據類型),
可信度 (範圍未指定),
可資支持的源頭URL( 未指定集合,評估標準未定義)
接受/拒絕的可信度界限(與第二項的區別不明確)
競賽為參賽者提供訓練數據(training data)和開發數據(development data)。然而與輸出定義一樣,也有很多未指明或未定義的情況,例如某一條聲明的時效性,它在n年可能是真,而到了n+t年極有可能不真。
「努力使我們生活的世界變得更好」,喊出這句口號容易,支撐這句口號背後所需要的工作不易。帕墨婁和他的夥伴意識到熱情與現實之間的距離後,對競賽目標做了些修改。從第一版的假新聞識別,改成了第二版的立場識別(stance detection),將標題和內容放進演算法測試,輸出如下四種結果之一:
相符:正文與標題相符
不符:正文與標題不符
討論:正文討論了標題所指明的議題,但並沒有選擇立場
無關:正文所議與標題無關
可以完成上述任務並具有最高準確性的AI將成為競賽的優勝者。
可是,這顯然並沒有解決假新聞的問題,它僅僅一定程度上降低了人工核實的工作量。然而,從不起眼的可行之處著手,已經遠遠好過博眼球的奇蹟。
但你關心的,其實還是AI能否解決假新聞的問題對嗎?
要回答這個問題,需要先明確,假新聞究竟是不是一個可以用人工智慧技術來描述和定義的問題?當然,將任何一個需要智力參與的任務用機器(或者說演算法)來將其自動化,都是人工智慧領域的問題。而現在AI領域並不具備可以自動化一切智能任務的工具;AI屆擁有的,僅僅是越來越豐富和強大的技術,用以識別數據中的規律,從而更好地描述問題。
可以用來與假新聞比較的也許有這樣兩個可以算作已成功解決的問題:一是色情圖片識別,一是垃圾郵件過濾。這二者的識別系統均採用一種叫監督學習(Supervised learning)的方式,演算法將輸入與數據集{x1…,xn}以及相應的標籤{y1…,yn}相比較,該學習演算法輸出的便是與每一個輸入x相對應的y。具體到垃圾郵件檢測,每一個輸入xi即為一個電子郵件及其元數據的一種表現方式,所對應的yi是一個二進位標籤{0,1},分別表示是或不是垃圾郵件。同樣,色情圖片識別的輸入是圖片,每一個yi也是一個二進位標籤,分別表示是或不是色情圖片。在這兩個問題里,輸入輸出都定義明確,而且在做標記階段,無論是垃圾郵件還是色情圖片的是和否,都有非常高的程度的共識。
這麼一比較,顯而易見,假新聞的問題與這二者的困難程度不在相同的數量級上。
這麼說,當然不是為了泄氣。IBM的辯論機器人(Debator bot)從海量的辯論文本中學習提取有說服力的論點,谷歌剛剛推出的Perspective API(觀點介面)可以在社交媒體上辨別「有毒」(toxic)評論。我們不相信奇蹟,但是這些努力興許是未來奇蹟的起點。
▍(三)立規矩
AI能夠解決的問題,與它們能夠帶來的麻煩,似乎可以等量齊觀。
基本上是刻不容緩的節奏,歐盟2月16日召集立法人員,討論給AI這熊孩子立規矩的大事,整個草案涵蓋了一個倫理框架,在徹底開發人工智慧的經濟潛能外,確保包括無人車在內的各類機器人從開發、實現到成型的各個環節的安全可靠性。
起草人馬蒂·德爾芙說:「我們日常生活中越來越多的領域正在受到機器人的影響,本著致力於闡明這一現實,並確保機器人正在,並將一直會停留在服務人類的本分上,我們迫切地需要建立一個穩固的歐洲法律框架」。
草案以一套機器人「行為守則」組成,從技術、倫理和監管等方面提供專家規範,規定了誰將對機器人在社會、環境、人類健康等方面的影響負責,並保證他們的操作符合法律、安全和倫理規範。例如,該守則建議設計「毀滅」鍵,以供緊急情況下關閉機器人。
這份草案以17票贊成,2票反對,2票棄權而通過。
有趣的是,歐盟議會在聲明中加了這麼一句意味深長的話「歐洲在建立這些標準的問題上需要先行一步,以避免被迫屈從他國。」這一句在我讀來便是,歐洲不要做矽谷的殖民地。
所以被立了規矩的其實不只是熊孩子。
原標題:《給AI這熊孩子立個規矩》
【作者簡介】
黑爪 | 騰訊·大家專欄作者。
【精華推薦】
·END·
大家∣思想流經之地
微信ID:ipress
洞見 · 價值 · 美感
※李伯重:清代江南人民為何要控制人口增長?
※閆紅:對於要改變自身階層的男人,實用的才是真愛情
※雲也退:以色列,在媒體筆下亂成一鍋粥
※吳鉤:宋代一起「刺死辱母者」事件
※聶建松:為什麼偽科學更容易被接受
TAG:騰訊·大家 |
※想讓孩子長個子?上海寶媽是這樣給孩子搭配營養的
※給孩子一面這樣的黑板牆,孩子會愛你一輩子!
※一個女孩子家養這麼大個狗狗幹嘛
※恐怖漫畫《孩子》熊孩子搗蛋的下場,這個媽媽好恐怖
※為什麼你一個女孩子要打拚得那麼苦?
※為什麼叫狗狗「毛孩子」?
※對付熊孩子,就得這麼干!
※這個星座女是一個沒有安全感的孩子
※我是個小三的孩子
※你應該像個真正的熊孩子
※這個寶媽真的好可憐,生個孩子容易嗎,八顆牙齒沒了
※喵星人就像一個小孩子一樣自由的玩耍!
※想要孩子獨立,你得學會做個「懶」媽媽
※每個孩子都是不同的獨立人
※一群熊孩子和一隻熊孩子!看得停不下來
※親子:做個自然的孩子
※熊孩子作死真是一套一套的
※養個熊孩子當魔豆吧,挺好噠
※這是誰家的熊孩子!
※傻孩子,是蹭了隔壁王叔叔家的WIFI