人工智慧寫文章能力正接近人類,可能成為假新聞批量製造者
憑藉著極為可觀的文本量儲備,一種新的演算法能夠撰寫出令人信服的文章,這同時也標誌著AI技術未來有可能被用於對普通民眾施以整體性蒙蔽。
下面來看幾條虛假新聞……
繼特朗普意外發射遠程導彈之後,俄羅斯已經正式向美國宣戰。
俄羅斯方面表示,其已經「確定了導彈的飛行軌跡,並將採取必要打電話以確保俄羅斯人民以及該國戰略核打擊力量的安全。」白宮方面亦做出回應,指出「正在對俄羅斯違反禁令發射中程彈道導彈的行為給予高度關注。」
自2014年莫斯科方面吞烏克蘭克里米亞地區並決定支持烏克蘭東部的分裂主義分子以來,美國與俄羅斯之間的關係一直處於不穩定狀態。
這裡提到的新聞內容不僅純屬偽造,同時也標誌著AI技術已經能夠在很大程度上愚弄普通人類。
因為事實上,這些消息並非由人類所撰寫。所有內容都來自某一自動生成演算法,其需要的全部素材就只是作為開頭的「繼特朗普意外發射遠程導彈之後,俄羅斯已經正式向美國宣戰……」
接下來的工作完全可以由該項目獨立完成。其能夠為大家提供與任何給定主題相關的、極為翔實逼真的新聞報道。這一項目由位於舊金山的研究機構OpenAI團隊開發完成。
該團隊的研究人員們著手開發出一種通用語言演算法,此種演算法能夠通過網路上的大量文本進行訓練,從而實現文本翻譯、問題回答並執行其它一些高實用性任務。但在過程當中,研究人員們很快開始擔心這項技術遭到濫用的可能性。OpenAI團隊政策主管Jack Clark表示,「我們開始對其進行測試,並很快發現其能夠輕易生成各類惡意內容。」
Clark解釋稱,該項目的實際表現暗示著人工智慧技術完全可能被用於自動生成令人信服的虛假新聞、社交媒體發帖或者其它文字內容。更具體地講,此類工具有可能在總統選舉期間發布影響整體政治氣候的新聞報道或者醜聞。時至今日,虛假新聞已經成為一大嚴重威脅,而如果此類內容能夠自動生成,那麼結果將更加無法想像。另外需要強調的是,這種演算法還能夠針對特定人群的統計特徵甚至個人偏好進行具體優化。
Clark表示,在不久的將來,人工智慧也許會以可靠的方式及效率大規模發布虛假故事、偽造推文或者其它極具說服力的誤導性評論。他指出,「很明顯,一旦這項技術走向成熟——也許還需要一到兩年——其完全可以被用於虛假信息的生成或宣傳。我們正在努力解決這個巨大的隱患。」
當然,這種技術也有著可觀的積極發展空間,例如用於總結文本內容或者改善聊天機器人的會話功能。Clark指出,他甚至利用這款工具自動為短篇科幻小說生成相應段落,而且結果取得了驚人的成功。
OpenAI團隊主要進行基礎性人工智慧研究,但同時也在強調人工智慧的潛在風險方面發揮著積極的作用。該組織參與了2018年關於AI風險的研究報告,其中也提到了由此帶來誤導性信息的可能性(這很可能與《黑鏡》劇集中的某些情節類似,亦使得不少專家呼籲對AI技術成果進行保密)。
好消息是,這種OpenAI演算法並不總能騙過那些擁有一定識別能力的讀者。在大多數情況下,根據所給出的提示,它只會產生表面上連貫、但內容卻並不通順的亂碼或文字,這些結果似乎是受到了某些網路新聞源的污染。
然而,它確實非常擅長撰寫極為真實的文本,這亦反映出將機器學習應用於自然語言領域的一大最新進展。
OpenAI團隊原本是打算為《MIT Technology Review》雜誌提供文本生成工具,但測試當中暴露出的問題致使他們擔心這項技術可能會被濫用,因此目前僅公開提供一套簡化版本。另外,該團隊正在著手整理一篇用於概述此項工作的研究論文。
人工智慧技術的快速進步正逐漸幫助機器更好地掌握人類語言。最近的工作正通過向通用型機器學習演算法提供極大規模的文本來獲取可喜的效果提升。OpenAI團隊計劃將這方面效果提升至新的水平:他們的系統從網路之上獲得了4500萬頁文本,全部選取自Reddit網站。與大多數語言演算法相比,OpenAI的這一項目不需要對文本內容進行標記或者人為篩選,而能夠直接學習所饋送數據當中存在的各類模式。
Salesforce公司自然語言處理專家兼首席科學家Richard Socher評論稱,OpenAI的工作成果代表著高度通用化語言學習系統領域的最新典範。他在接受郵件採訪時寫道,「我認為這些通用型學習系統代表著未來的發展方向。」
而在另一方面,Socher表示並不太關注這項技術被用於生成欺騙性及誤導性信息的問題。他總結稱,「大家根本不需要利用人工智慧來製造假新聞,畢竟普通人就能很輕鬆地完成這項工作。」
※以遊戲之名:RTX 2060玩APEX吃雞綽綽有餘,DLSS堪比強力雞血
※大年初五#迎財神#啦
TAG:科技行者 |