當前位置:
首頁 > 新聞 > 15億參數的NLP模型究竟有多強大?有人用它生成了一部《哈利·波特》

15億參數的NLP模型究竟有多強大?有人用它生成了一部《哈利·波特》

新智元報道

來源:twitter、fast.ai

作者:Janelle Shane 編輯:肖琴

【新智元導讀】本文作者得到OpenAI研究人員的幫助,用完整的、15 億參數版本的GPT-2模型生成了一個《哈利·波特》的同人劇本,並表示結果超乎想像。

這個模型是 OpenAI 去年發布的無監督 NLP 模型 GPT 的直接拓展,基於Transformer,擁有 15 億參數,使用含有 800 萬網頁內容的數據集訓練。

GPT-2 可以生成連貫的文本段落,刷新了 7 大數據集基準,並且能在未經預訓練的情況下,完成閱讀理解、問答、機器翻譯等多項不同的語言建模任務。

但 OpenAI 聲稱 「有鑒於其強大的能力和可能被濫用的危險」,並沒有公布 GPT-2 模型及代碼,只公布了一個包含 117M 參數的樣本模型及代碼。

此舉引起 AI 社區熱議,有人批判 OpenAI 變 CloseAI,也有人讚賞 OpenAI 對 AI 安全的謹慎態度。

這個模型究竟強大到什麼程度,以至於它的創造者如此擔心它被惡意使用呢?

Janelle Shane 是一位喜歡訓練神經網路做各種有趣事情的光學研究科學家,她曾用 AI生成過菜譜、貓咪、歌曲等等。這次,她當然沒有錯過用 GPT-2 創作。

她在推特上寫道:

我一直渴望看看 GPT-2 會如何編寫哈利 · 波特的劇本,結果超乎我想像的好。

當然,Janelle 最初用的是公開的 117M 參數的 GPT-2 模型。方法是給模型提供一句話的 「提示」,神經網路輸出一段文字,效果如下:

Prompt: Harry wished that Hermione would hurry up. The icing was beginning to harden.

提示:哈利希望赫敏快點。冰開始變硬了。

Response: Even now, the cracks only hurt and were beginning to make the steel in her hair and tie in like clumps. Hermione sipped the bitter frost from her dinner and chewed on her eating soup.

回答:現在,裂縫已經讓她感到疼痛,開始讓她的頭髮變得像鋼鐵一樣堅硬,結成一團一團的。赫敏呷了一口正餐上的霜凍,咀嚼著湯。

感覺怎麼樣?似乎稱不上十分震撼。

但隨後,Janelle Shane 得到 OpenAI 研究人員的幫助,用完整的、15 億參數版本的GPT-2 模型做了同樣的事情 —— 生成一個《哈利 · 波特》的同人電影劇本!

15億參數的GPT-2 生成的《哈利·波特》劇本

Janelle Shane 在推特上分享了完整版GPT-2 模型生成的哈利·波特劇本,其中,只有」Open AI asked a bot" 和前 2 行對話來自人類的提示:

OpenAl 讓 GPT-2 閱讀了大量互聯網上的《哈利 · 波特》同人小說電影劇本,然後讓它自己寫一個哈利 · 波特電影。

哈利:我們快到霍格沃茨了!

赫敏:到目前為止還沒有出現任何攻擊或災難。

哈利:你是想出現一場戰爭嗎,赫敏?嗯…… 這不是能和米勒娃談的事情。她很擔心。

赫敏:夏天的時候有一個名叫斯內普的巫師發生了一起事件。

[赫敏對斯內普稱她 「哈利」 感到吃驚。]

哈利:嗯,一定是他。

赫敏:是另一個。

哈利:是的,倫敦那位。

哈利:我們應該去那兒的。

[哈利試圖回到魔法部。]

哈利:但鄧布利多說這很危險。

哈利:也許他不相信斯內普。

哈利:嗯,我相信你能想到的……

哈利:但他不在那兒時,他甚至沒有注意到斯內普在那兒……

哈利:他為什麼不阻止我呢?

哈利:因為我知道真相,而他不知道。

[斯內普走進他的辦公室,然後看著他的信。]

赫敏:那麼,你告訴他真相了嗎 ?

斯內普:是的。

哈利:這會毀了他嗎?你想讓他看到真相。

斯內普:[轉向她] 赫敏,我 —— 我 —— 我不是在要求你接受我。

哈利:[微笑]。不,這很好,沒必要。

斯內普:我明白。

[一條蛇出現了,斯內普把它放在他的頭上,它似乎在說話。它說:「我原諒你。」]

哈利:如果你不原諒,就回不去了。

斯內普:(嘆氣) 赫敏。

哈里:好了,聽著。

斯內普:我對這件事很生氣,很難過,我想為此向你道歉。

哈利:這不是你的錯。

哈利:我不是這個意思。

[出現了另一條蛇,它說』我原諒你。』]

赫敏:我原諒你。

斯內普:好的。

哈利:[坐下來,從肖像洞口望出去] 我想他們會想讓我成為他們的部長。

[他看著壁爐里的肖像洞,肖像被燒掉了。盒子里有一個戒指。看起來像赫敏送給哈利的戒指。]

斯內普:那不是你的。

哈利:是我的。

斯內普:不是我的。

哈利:一個朋友也問了我同樣的問題,赫敏。

[斯內普伸出他的手臂,被扯下來了。哈利摘下戒指。這是一顆形狀像紫水晶的藍寶石。是赫敏送給他的戒指。]

[鏡頭移到肖像洞口,火光落在戒指上。面畫顯示斯內普伸出他受傷的手臂。]

哈利:[看著照片] 我想你該告訴我了。

[他看著壁爐里的戒指,藍寶石又回到了盒子里。火光又滅了。]

斯內普:哈利,你永遠不會知道這是怎麼來的。

哈利:一切都在我的掌控之中。

[斯內普轉過身來,他穿著一件睡衣,只有魔杖尖還有火苗。一條蛇坐在盒子上面。]

蛇:有兩種方法可供選擇。

[斯內普打開盒子,蛇進入盒子的另一邊。斯內普站了起來。]

蛇:你有兩種選擇。

哈利:兩個我都不想要。

蛇:哈利,哈利,你父親總是告訴我,人生只有兩件事情是重要的,你的父母和你的國家。

哈利:[指著自己] 你說得對,我不想要你或其他任何人。

斯內普:不,你會想要的。

[斯內普從哈利身邊走過。背景中是海格的一幅畫,中間是 Snively。蛇在海格的懷裡。她懷裡抱著一隻黑貓。]

THE END

這個效果實在讓人驚嘆!甚至有點引人入勝,「斯內普頭上的蛇」 是怎麼回事?斯內普想要赫敏原諒他什麼?

當然,模型並不完美,生成的劇情有時候讓人迷惑,網路在人稱指代關係上有時候也不明確。

但 Janelle 說:「這個結果超乎我想像的好!」

15 億參數模型的結果跟 117M 參數的小模型的結果進行比較也很有趣。Janelle 表示,117M 版本模型生成的劇本經常偏離了格式和角色,變成用文字記錄的散文或視頻遊戲記錄。

117M參數的GPT-2生成的結果

但完整模型甚至很好地保持了格式上的統一。要知道,人類提供的提示只有」Open AI asked a bot" 和前 2 行對話。

網友評論中也紛紛表示驚嘆:

「哇!如果讓大衛 · 林奇 (David Lynch) 來寫一部《哈利 · 波特》電影,感覺就是這樣子的。而且,角色還會倒敘。」

「很驚訝它一直保持著相同的敘事風格。」

「117M 版本模型生成的劇本也給我留下了深刻的印象。它會引入其他適合的角色,等等。儘管在我經驗中,它傾向於把史波克和柯克寫進任何《星際迷航》故事裡!」

從 "Okay, listen" 到 "meant to imply" 這裡,真的是非常連貫的對話,在我看來這些對話完全可能出現在小說里。

Janelle 還提供了兩個 「未選用鏡頭」:

在這兩個失敗鏡頭中,GPT-2 沒有編寫《哈利波特》的劇本,而是編寫了一個由 bot 撰寫的腳本,講述編劇如何讓機器人編寫劇本。

零日攻擊擔憂

OpenAI 表示,他們對 GPT-2 的發布策略是:

由於擔心大型語言模型被用於大規模地生成欺騙性、有偏見或惡意的語言,我們只發布了一個更小版本的 GPT-2 模型以及樣本代碼。

這裡,我們有必要討論 「規模」。OpenAI 研究人員的主張是,如果沒有時間讓更廣泛的社區考慮好,更大規模的模型可能會造成重大損害。有意思的是,就連他們自己也不認為對這個決定有信心:

這個決定,以及我們對它的討論,是實驗性質的:雖然我們不確定這在今天是否正確的決定,但我們相信 AI 社區最終需要在某些研究領域以一種深思熟慮的方式來解決出版規範的問題。

這個模型的規模有多大呢?他們沒有在博客文章中明確提到這一點,但根據論文,新模型的參數大約是之前的 GPT 模型的 10 倍。fast.ai 的 Jeremy Howard 據此推測,從AWS 租用 10 台 8 GPU 的伺服器,在一個月內訓練模型大約需要 5 萬美元。當然也可以購買 8 張 RTX 2070 或 RTX 2080 ti 的 GPU,花 10 個月來訓練,成本大約需要 2萬美元。當然,還要考慮收集數據和試錯所需的時間和金錢成本。

因此,在實踐中,不發布模型的決定有兩個結果:

(1) 其他組織要想成功複製模型,可能至少需要幾個月的時間,因此我們有一些喘息的空間來討論當它變得更廣泛可用時應該怎麼做。

(2) 負擔不起 10 萬美元左右費用的小型組織無法以演示中的規模使用這項技術。

Howard認為,第 (1) 點似乎是件好事。如果突然有人在沒有任何警告的情況下使用這項技術,那麼沒有人能夠做好準備。(理論上,人們可能已經做好了準備,因為 NLP 社區的研究人員已經警告過這樣一個潛在的問題,但在實踐中,人們往往不會認真對待它,直到他們真正看到問題發生。)

例如,在計算機安全社區中,如果你發現了一個缺陷,那麼你的期望是幫助社區做好準備,然後才會發布完整的細節 (也許是一個漏洞)。如果這種情況沒有發生,就稱為 「零日攻擊」(zero day attack),這會造成巨大的破壞。

另一方面,第 (2) 點就成問題了。最嚴重的威脅也最有可能來自擁有 10 萬美元的人成本的人,例如,進行虛假宣傳活動,試圖改變民主選舉結果。

對於這種攻擊,唯一可行的防禦方法是使用相同的工具來識別和反擊這種虛假信息。當受到影響的更廣泛的社區使用這種防禦時,它的力量可能會更加強大。正如我們在維基百科或開源軟體等項目中所看到的那樣,一大群個人的力量一再被證明在創造方面比在破壞方面更強大。

那麼,OpenAI 應該發布他們的完整預訓練模型嗎?Howard 表示,他也不知道。但毫無疑問,OpenAI 已經展示了一些與以前的成果有本質區別的東西(儘管沒有展示出任何演算法或理論上的突破)。Howard 認為這個模型會被惡意使用:它將成為傳播虛假信息和大規模影響話語的有力工具,並且可能只需花費 10 萬美元。

如果發布模型,這種惡意使用將更快地發生。但是,如果不發布該模型,那麼可用的防禦也會減少,對這個問題的理解也會更少。這兩種結果都不好。

你覺得呢?

參考鏈接:

https://twitter.com/JanelleCShane/status/1097652984316481537

https://www.fast.ai/2019/02/15/openai-gp2/

更多閱讀

【加入社群】

新智元AI技術 產業社群招募中,歡迎對AI技術 產業落地感興趣的同學,加小助手微信號:aiera2015_2入群;通過審核後我們將邀請進群,加入社群後務必修改群備註(姓名 - 公司 - 職位;專業群審核較嚴,敬請諒解)。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

「不作惡」抵不過鈔票的誘惑?谷歌軍事項目疑似轉入地下外包操作
編程面試問題太難,真的沒必要

TAG:新智元 |