當新聞業遇到人工智慧:新聞編輯室中的機遇、挑戰與變革
編者按:當人工智慧成為數字時代新聞編輯室的生產力之一,它已經或者將要給新聞編輯室帶來哪些變革?2017年夏天,哥倫比亞大學數字新聞中心和「布朗傳媒創新研究所」召開了一個政策交流論壇,記者們在一起討論人工智慧對新聞編輯室產生了怎樣的影響,以及應當如何更好地適應新聞領域。近日,數字新聞中心將這次論壇的重要發言整理成報告發布在其網站上,報告主要探討了三個方面的內容:人工智慧在新聞編輯室如何工作;人工智慧為新聞生產帶來的技術突破;人工智慧引發新聞業新的倫理問題。以下是話媒君為您編譯的報告全文:
報告簡介
重要發現:
l人工智慧工具可以幫助記者們講述那些以前因資源太過匱乏而無法推進的故事,或技術上無法觸及的故事。儘管人工智慧可能會改變新聞業就業崗位的性質和職責,但它只可能增強而不是取代記者的工作。
l設計人工智慧的技術人員和使用它的記者之間存在著知識差距和溝通障礙,這可能導致記者不合理的使用人工智慧。
l新聞編輯室應該告知讀者,人工智慧工具是如何在分析、識別模式或在報道所發現的事實中被使用的。
l雖然人工智慧和數據的結合為讀者的參與、貨幣化和新聞生產的個性化提供了新的機會,但隨之也給用戶反饋和新聞生產的公共服務功能帶來新的挑戰。
l在倫理規範下使用數據(如何收集、存儲、使用、分析和共享來自用戶的信息)是記者必須面對的一個基本問題。
l人工智慧為數據記者工作開發了更多可能性,但如何獲取開放數據仍是一個挑戰。
l人工智慧的未來具有不可預測性,我們沒有信心預測最大的負效應會在哪裡出現。技術人員和記者都必須保持警惕,以保證新聞生產系統的正常運行。
建議:
l培訓編輯和記者的投資至關重要。當人工智慧工具進入新聞編輯室,記者們需要了解如何使用新的資源來講述故事。
l制定和推進新聞記者和技術人員在倫理框架下使用數據的共同準則非常必要。現有的人工智慧工具,如:聊天機器人、評論系統應該成為可以體現編輯價值和標準的早期人工智慧輔助新聞生產最有針對性的工具。
l定製化人工智慧對於小型企業來說太昂貴了,新聞編輯室應該考慮投與學術機構合作。
l在人工智慧使用過程中,需要有一種協調一致的、持續的努力來對抗隱藏的偏見,這種偏見通常是不被承認但始終存在,因為演算法是由人類設計的。記者必須努力在他們的故事中增加技術的透明度,用熟悉的和非技術性的術語來說明人工智慧是如何用來幫助他們的報道或生產的。
討論一:人工智慧與新聞編輯室
有一個問題值得思考:如若將人工智慧用來增強或擴展(甚至是自動化)新聞選擇,新聞編輯室應該如何負責任的使用它?人工智慧究竟有什麼好處?
每個新聞編輯室都有一套獨特的方法來使用人工智慧。在研討會上,與會者回答了人工智慧目前在新聞編輯室中所扮演的角色,以及他們所面臨的問題。《紐約時報》互動新聞編輯蔡斯·戴維斯強調說。關於技術和新聞的融合,他承諾:人工智慧可以幫助記者發現和報道以前不可能實現或不切實際的新聞。
在幾個案例研究之後,有人提出:在新聞編輯室里,人工智慧的有益嘗試可以分為以下三類:
1.「海底撈針」般的數據管理:鑒於數據的規模日趨宏大,性質日益複雜,人工智慧可能是一種突破性的數據管理工具。在新聞編輯室的標準流程中加入人工智慧的數據管理功能,可以發現人類肉眼無法審視的數據及其關係,且人工編輯可以再對數據和關係進行核查。
2.數據識別:人工智慧的巨大計算能力可以進行數據聚合,也可以將按時間、地理或人口統計學進行分組,甚至可以快速識別異常數據。
3.發現偏見:人工智慧是由人類建造的,通過檢查它們,我們可以發現以前看不到的報道偏見。這些報道偏見是如何通過人工智慧演算法找到的?當這些工具應用於我們的社區、城市或國家之時,又會發生什麼?
正如Mark Hansen所建議的,我們也開始看到更多的高級記者正在創建分析方法,這些分析方法主要是在給定的主題上進行搜索計算。在這樣的背景下,我們有了新的調查方式和寫作手法。
案例研究:自動化新聞的範疇
人工智慧進入新聞編輯室,使得記者作為業餘數據科學家的能力有了重大突破。人工智慧可以通過以下幾種方式幫助記者工作:
幫助對文檔進行分類和分類,識別數據中值得仔細檢查的異常值,或者尋找數據。當然,在我們的討論中,把一個有經驗的人與真實的新聞核查聯繫在一起,是我們在新聞編輯室與人工智慧合作的一個重要部分。有專家指出,在人工智慧方面,存在著一個「自主的閾值」:一端完全自動化,而在另一端,人工智慧可以和人類一起在一定的範圍內進行合作。
雖然有很多很好的例子,例如體育新聞、企業財報、甚至地震等可預測的數據模式,但很少有與會者認為,記者的工作會完全被一種演算法所取代。人工智慧可以幫助自由作家們不斷重複地寫作相同的報道。
值得注意的是這些例子:洛杉磯時報記者使用分類器來檢測LAPD降級犯罪分類的實例;《亞特蘭大憲法》關於醫生性虐待的調查;路透社的話題建模,尋找權力中心的請願者。最高法院的ProPublica演示機器如何學會種族主義;《紐約時報》詢問競選財務數據,並利用面部識別來確定特朗普總統就職典禮上的觀眾是誰。
考慮到這些人工智慧項目的突破、熟練的性質。一些與會者希望記者花時間去了解他們想要使用的工具。實際工作中,有時,記者們發現,標準的新聞方法在審查或批判各種人工智慧操作時是有效的,但有時卻並非如此。對於新技術沒有出現的情況,我們能說些什麼呢?是否遺漏了什麼新聞選題?工具的盲點是什麼?隨著時間的推移,如何對給定的主題進行偏差分析?
為了避免這些問題,與會者建議接觸熟悉工具和限制的研究人員——正如Chase Davis所指出的,行業專家、記者和編輯之間仍然存在著溝通的鴻溝。
記者和編輯們長期以來一直以某種方式做事,他們可能會抵制學習新的工具或過程。根據本次會議的參與者,花時間學習新的技能和使用人工智慧工具、數據和演算法的新規則是必須的。
數據:人工智慧的潛力所在
越來越多的數據,從社交媒體到政府數據,都能使新聞編輯室完成以前不可能完成的報告,儘管它仍然存在缺陷。記者必須謹慎評估這種新型數據來源的可信性,尤其是在人工智慧領域。許多會議與會者強調批判性地思考數據倫理。舉個例子,使用Twitter作為社交媒體平台的記者必須謹慎地依賴它來分析社會的行為、思想和感受。雖然Twitter的開發者工具和數據很容易使用,但記者們不應該只關注它,因為這個平台在政治和媒體領域中受歡迎的比例遠遠高於其他人群。
其次,利用現有公共數據工作變得更加容易。但是,正如一位專家所指出的,有時最好的新聞工作是用那些還不存在的數據來完成的,而人們卻很難去創建一些新的數據。我們從什麼時候開始允許新聞被數據所塑造,為了效率還是方便?
對出版商的挑戰:大中型的新聞編輯室
有了這些新工具,就有義務培訓編輯、記者和新聞編輯室的開發人員,讓他們負責任地使用這些工具。這一努力,更不用說人工智慧本身,可能代價高昂。雖然投資者可能不是像《紐約時報》這樣的大型新聞機構,但對於擁有較少資源的小型新聞編輯室來說,這將是一個挑戰。編輯部領導人可能面臨的一個決定是,必須建立、購買或合作,因為其他競爭者在使用人工智慧工具。一些來自大型、資金充足的新聞機構的與會者說,用複雜的數據集和定製演算法進行的調查分析代價太大。幾個月的工作,甚至是大型團隊的建設。不是所有的新聞機構都能做到的。
談及工具本身,與學術機構和研究人員合作對新聞機構來說是一種很好的方式。但是新聞編輯室和學術實驗室的情況是完全不同的。與會者指出,有時大學的公關部門會製造一些障礙。
記者試圖與學術夥伴合作。許多公認的準則認為學術研究人員可能不太了解新聞倫理,記者也不了解同行評審研究的倫理和規範。兩者間的關係,需要一定的時間,也需要雙方加深對這種夥伴關係如何運作的理解。
討論二:技術
人工智慧技術在報道、內容創作、分發、讀者反饋等方面的協助作用正在不斷增加。目前,幫助數字信息整合以後相關數據組合的大眾資源,頭腦風暴和事實核查方面的工具正在研究過程中。在現代新聞組織中,自動化不僅是吸引消費者注意力的有力工具,也是如Netflix,Facebook和Amazon這種平台的競爭力所在。
新聞的自動化和個性化
在很短的時間裡,自動化技術可以分析總結大量的數據,這潛在的減少了新聞記者的工作負擔。最近的媒體運用如Wibbitz,News Tracer和BuzzBot的表現說明人工智慧技術和新聞組織是可以實現行業和消費者雙贏的。
我們對自動編輯新聞的看法的改變取決於我們想要人工智慧寫什麼類型的新聞。與此同時,自動化也會兼顧個性化的文章。個性化要求寫作者和編輯根據讀者的興趣和關注點寫不同的文章以提高讀者的忠誠度,但正如一個調查參與者所說,過多的個性化同樣具有危險性。
通過對讀者行為的管控,人工智慧技術能夠理解讀者的喜好,並由此生產出個性化內容,最終發展成為消費者的行為活動和投資回報。工具的使用帶有各種各樣的目的,既可以產生積極影響,也可能帶來負面作用,比如製造假新聞。這使媒體新聞所代表的真實性變得不穩定,對新聞記者和法律也有巨大的隱患。
在個性化和公共服務之間找尋一個平衡點是新聞業面臨數字時代的重要任務。很多社交平台和網路公司都表明個性化和獲取注意力的一個重要因素。比如,Netflix使用行為數據來獲取持久性的建議,Amazon通過數據為消費者提供個性化消費體驗。
新聞業的自動化技術影響也會帶來一些不可預見的結果,同時有政治傾向的個性化新聞也具有危險性;過於個性化就會使新聞業成為市場或者宣傳鼓動的手段。
新聞個性化同樣讓公共檔案處於危險之中。當每個人看到的新聞都不一樣,就沒有一個權威的版本。互聯網上的內容可以移除,這就沒有可歸檔的可能。你所看到的將並不能證明是其他人看到的。
自動化增加了目前新聞的深度,作者和專家都需要一個可以編排新聞系統的工具。調查研究發現,把具有相關性的內容和新聞放在一起,可以讓讀者知道其他人對某一問題的看法。
數據壟斷與開放數據
當大多數先進的演算法都獲取專利時,公眾接下來能用的東西總不會差到哪去。公共資源調查和分析的基礎工具應該像Apache Lucene和Elasticsearch一樣。
挑戰和局限
正如其他複雜系統一樣,人工智慧也存在錯誤,並且錯誤的後果是嚴重的。這就顯示出人類的參與和嚴格的檢查在人工智慧系統的運作中是非常重要的。正如我們在前文中指出的,機器人不應該擔負責任,外在的人為干預是不可或缺的。
要如何制定防故障措施呢?2016年德國基礎調查組織出版了一份人工智慧防故障報告。這份報告指出,在正常操作和控制故障的情況下,人工智慧會帶來較少的問題。好消息是,機器不能離開人,每個人工智慧後都有科學家的支撐。因此,機器學習的最終防故障措施是有一台不需要人的計算機。
對於新聞業來說,數據清理是另一個局限。清理數據需要花費數周甚至數月的時間,因為法律限制,這項工作必須要人為完成。除此之外,在商業價值中,這種憂慮也將持續存在,並只能依靠人為解決。新聞業使用公共不提供的數據內容或者並不容易獲取的數據,會導致個人資料庫的產生。
討論三:演算法與道德
Propublica 數據新聞副主編Olga Pierce和調查報道記者Julia Angwin在他們的演講中強調了一些與透明度有關的問題,涉及到基礎數據的質量和結果相應的準確性:是否應該公開這些系統的使用標準?演算法是否應該在實施前獨立測試?一個給定工具的公平性可以通過檢查結果來確定嗎?新聞工作者應該對用於撰寫故事的給定工具的結果負責嗎?
透明度和問責制
討論中出現的一個例子是使用聊天機器人與讀者交流:如果用人工智慧來驅動,機器人怎樣向觀眾交流呢?事實上是一個演算法創造了一個故事嗎?當涉及到人工智慧時,誰最終對結果和錯誤負責?該如何解釋由人類創建的演算法造成的錯誤的性質?人類或演算法是否應該受到指責?
就像在學術方面的工作一樣,讀者應該了解一個清晰的方法論,說明如何使用人工智慧工具來進行分析、識別模式或報告一個發現。但是這個描述必須被翻譯成非技術性的語言,並且以簡潔的方式告訴讀者人工智慧是如何使用的以及如何做出選擇的。
與會者強調,透明度不應僅限於分享數據。一些參會者強調實現演算法透明的任務十分棘手。演算法往往是黑盒子,沒有簡單的解釋,記者應儘力描述構建演算法時所做的選擇,並突出顯示任何可能出現在這些選擇中的偏見。
新聞學是一種審查學科,新聞工作者有兩個主要責任:一是以清晰易懂的方式向讀者提供信息,二是解釋信息的有效性。到目前為止,還沒有披露記者使用人工智慧工具的最佳做法。
很多行業(如保險和醫療服務提供商)使用的演算法很少單獨進行測試。 這是新聞工作嗎?為了討論起見,我們列舉了幾個例子:預測再犯風險的演算法,以及計算汽車保險費和支出的演算法。在這兩種情況下,ProPublica的研究人員證明演算法偏差在數學上是不可避免的。即便如此,新聞工作是否有辦法幫助這些系統負責,並鼓勵演算法系統將責任承擔建立在其流程中呢?
考慮到正在使用的工具,記者需要首先在內部建立專業知識,在有疑問時儘可能更少的依靠領域專家。正如一位參會者強調的那樣,透明度和可解釋性是有區別的。透明度涉及使底層數據可用——允許人們與其交互——而可解釋性不需要透明度。
編輯的決定和偏見
演算法在新聞策劃中的作用越來越普遍。一位參會者表示:「我們需要記者能夠理解這些模型並理解這些數據集,因為選擇這些模型是一個編輯決定。」以聊天機器人為例,電腦就像人一樣,如果不了解內容,就不可能有對話;機器人能夠談論的唯一領域是我們為這個對話環境建立了一個模型的領域。
如何將編輯價值整合到管理過程中,這個問題的很大一部分來源於工程師們在編寫計算機代碼時對其所代表的編輯價值缺乏了解。 正如一位代表技術行業的參會者所說:「目前看來對於我們工程師來說,很多問題是難以理解的,因為我們對深層次的編輯價值不了解,所以我們不能對它們進行建模」
而且,為了使去偏向的概念更加複雜化,通常假設數據可以被凈化為中性;一些研究表明這並非總是可能的。雖然機器學習的種類很多,但是今天所使用的機器學習工具幾乎都是「監督式學習」。從我們建立情境展開的心理模型的角度來看,人類本身就是模型的建造者。這些機器學習演算法不是建立這種模型;而意圖才是緣由。
數據的道德使用規範
人工智慧工具讓記者可以在有限的時間內處理大量的數據。然而,優勢也容易成為挑戰。智能手機已經開啟了易於追溯的系統,這需要對數據進行合乎道德的使用,這些數據提出了有關敏感的問題,如透明度,情境化,共享規則和信任等。數據的道德使用是每個記者需要面對的基本問題。同樣的原則適用於處理大量數據的公司,此外,許多社交媒體平台向記者提供數據,但是「我們如何向提供專有但開放數據的公司施加壓力,例如Twitter?」一位參會者問。「如果他們不喜歡你在做的事情,他們可以把它關掉。」出版商和平台之間在開放數據訪問方面的關係也是複雜的,特別是在涉及到很多資助和平台分配的情況下。
許多演算法的本質是充當「黑匣子」; 一方面是投入,另一方面是洞察力,從而掩蓋了對軟體所做決定的批判性理解。無論是在自己的研究中還是在報道時使用它們,記者需要儘可能的重視這一問題。
有時候,對這個確切的機制進行詳細檢查是可能的,包括在其設計中做出的選擇,但是其他時候則不然。公司可能會拒絕共享專有代碼,導致從外部檢查黑匣子。對「數學解決方案」的保證感到滿意的警示故事與對審計演算法的調用結合在一起。即使沒有獲得細節,一些參與者表示可以控制投入並檢查結果。許多地方,州和聯邦機構在政策決策和治理方面對使用演算法的理解甚少而且不經審查。媒體在這個日益嚴重的問題上發揮著至關重要的作用。
編譯人員:許小廷、劉超、劉紫月、唐梓涵
責任編輯:秦志鵬
※都在說「雙頭壟斷」,但Facebook或許希望它從未涉足新聞業
TAG:話媒糖 |