當前位置:
首頁 > 科技 > 愛因斯坦70年前就預言了新冠爆發?這段AI復活視頻火爆Reddit

愛因斯坦70年前就預言了新冠爆發?這段AI復活視頻火爆Reddit

新智元原創

來源:Reddit

編輯:鵬飛、白峰

【新智元導讀】昨天,一段塵封多年的愛因斯坦視頻登上了Reddit熱搜,視頻中愛因斯坦操著德國口音的英語,號召大家團結起來,一定能夠戰勝新冠病毒。當然,這並不是真的,視頻出自一位名叫Chris的視頻特效師,他使用了流行的DeepFake技術並結合自己精湛的後期技巧,製作了這段幾乎以假亂真的視頻。「新智元急聘主筆、高級主任編輯,添加HR微信(Dr-wly)或掃描文末二維碼了解詳情。」

沒想到,愛因斯坦早就預知了2019年的新冠肺炎!而且還在1950年錄下一段視頻,鼓勵大家團結一致共同抗疫。

這段只有57秒的視頻中,愛因斯坦用他帶著德國口音的英語說了這麼一段話:

女士們,先生們我的名字叫Albert Einstein。

我們全體人類正陷入一場戰爭,

而我們的敵人卻看不見摸不著。

請大家待在家裡,保持距離,勤洗手。

團結起來,我們一定能夠戰勝新冠病毒。

謝謝。

剛剛看到這個視頻的時候(高能預警),新智元小編震驚的手裡咖啡杯掉在了電腦上(群眾喜聞樂見的情景出現)。這是真的嗎?看起來毫無違和感!

愛因斯坦那看透人類本質的狡黠的微笑、標誌性的髮型和帥氣的鬍渣子,甚至連額頭的皺紋、眼鏡片的反光都非常細膩,說話的語氣和口音也非常逼真。

因為這是一段來自1950年的錄像,鏡頭比例是4:3,也可以看到鏡頭中還會有一些膠片視頻特有的瑕疵出現。

AI「穢土轉生」,從未見過如此鮮活、精彩的愛因斯坦影像

實際上,這顯然是一段人造的視頻,靠的是AI(Artificial Intelligence)和AE(Adobe After Effects)。

視頻作者Chris是一位視頻特效師。

這個視頻主要使用了DeepFake技術,配合作者高超的視頻特效手法,製作出一個以假亂真的愛因斯坦視頻。

使用AI讓已故名人「起死回生」已經不是一件新鮮事了,但「從沒人見過如此鮮活多彩的愛因斯坦影像」,Chris說。

由於沒有合適的視頻素材,他自掏腰包買了一些商用的愛因斯坦視頻素材,並提供了一張製作前後的對比圖。來我們玩一把「大家來找茬」遊戲:

他告訴新智元,這個視頻的製作過程主要用到了以下方法:

視頻恢復(擺脫抖動和膠片偽影)

超級擴展(將標清畫質升級到高清畫質)

銳化和添加細節,重新創建丟失的細節。

黑白轉彩色

使用DeepFake來對口型

23fps轉換成48fps

這個不到一分鐘的視頻,花了Chris差不多一周時間製作。當被問到做到如此逼真的效果,是不是有什麼獨門秘籍還是純靠氪金的時候,Chris說都沒有,可能唯一的秘籍就是:耐心和恆心

醍醐灌頂的一句話,這不就是鐵杵磨成針的故事嗎!

作者告訴新智元,之所以使用愛因斯坦是因為他就是智慧本智,而且他的臉無人不知無人不曉。

如果愛因斯坦「站出來」呼籲大家採取一些行動(例如勤洗手,少出門),或許大家更能接受。

我們應該擔心DeepFake嗎?

去年,一個題為「突破:雪諾終於為第八季道歉」的視頻在youtube上大火,它以《權力的遊戲》第八季中一個陰森的場景開場。雪諾,劇中的一個角色,正在發表演講悼念一場重大戰役中的陣亡將士。但是他沒有談到士兵們的犧牲,而是話鋒一轉開始向大家道歉。

他環顧四周的人群, 「是時候道歉了,很抱歉浪費了你的時間。對不起,我們沒有從《迷失》的結局中學到任何東西。」

「我很抱歉我們只用了六天時間寫了第八季的劇本」瓊恩 · 雪諾說。「現在,讓我們燒掉第八季的劇本,永遠忘記它吧。」

接著我們就看到第八季的劇本在大火中被燒掉了。

這段視頻到現在已經超過200萬人觀看,超過2000人評論。這段視頻之所以引起如此大的轟動,還有另一個原因,那就是它的特技效果。瓊恩 · 雪諾的道歉顯然是假的,但它看起來和聽起來都是真的。這一切都要歸功於DeepFake。

DeepFake來源於一個匿名的 Reddit 用戶「DeepFake」 ,他從2017年開始發布假的名人色情圖片。

在紐約州立大學奧本尼分校教授數字媒體取證的專家 Siwei Lyu 說: 「這個用戶在 Reddit 上開發的DeepFake演算法是非常健壯和可靠的,操作起來也十分簡便。」

隨後,這個用戶在GitHub開源了他的代碼,其他開發者也實現了一些類似的演算法並不斷改進, 每個能聯網的人,有點計算機編程和機器學習基礎就能運行DeepFake,開始製作假視頻。

當然這也引發了很多擔憂,尤其是政客和明星在網上有很多公開的視頻和圖片,容易被不法分子或者別有用心的人利用,很多國家也開始考慮制定相關政策,禁止發布DeepFake製作的內容。

如何用DeepFake製作一個視頻

首先,去GitHub上下載 Deepfacelab 或 Faceswap軟體。

接下來,要收集需要偽裝的人的高清照片或視頻,最好是視頻因為可以採集到更多的角度和面部表情。

然後,把這些圖片或視頻信息輸入給Deepfacelab,給它一兩個星期的時間來「了解」這個人的面部表情和言談舉止是如何變化的,學習完了就可以按照自己的劇情生成假視頻了。

最後要選一個外貌相似者的視頻作為基礎,然後把Deepfacelab學到的模型遷移到基礎視頻中,你可以簡單地把某人的臉換成別人的臉,或者改變視頻中人物說的話,並調整他們的嘴型使之匹配,就能生成以假亂真的視頻了。

大部分DeepFake的研究都是基於生成對抗網路的,一個生成器,一個檢測器,生成器生成假內容,然後詢問對應的檢測器內容是否是真實的,二者不斷的互動來提高生成的內容質量

DeepFake在特效行業釋放了巨大的生產力,特效工作者不用再一幀一幀的修改視頻,調整好參數,輸入文件,後面的工作都有機器學習來完成。

如果世界上所有的東西都可以偽造,必然引發會引發大混亂,人們不會再相信看到的,聽到的任何信息。也有樂觀者認為,這就像是一場貓捉老鼠的遊戲,雙方的競爭會導致不斷的技術進步。凡事都有兩面性,樂觀點看,DeepFake製作的娛樂視頻帶給人們歡樂,但同時我們也必須提高警惕,防止DeepFake給普通人或者公眾人物造成不良影響,破壞我們正常的生活秩序。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

CMU研究員拿手機錄視頻,人臉3D建模高度逼真!
MIT華人教授發明神奇墨水,在小鼠大腦中植入3D列印柔軟電極