當前位置:
首頁 > 最新 > 基於區塊鏈的內容分發項目,怎麼能少了人工智慧?

基於區塊鏈的內容分發項目,怎麼能少了人工智慧?

目前有許多基於區塊鏈的內容分發系統,但是許多內容分發系統居然沒有提到採用人工智慧演算法進行內容分發,讓我很是詫異。比如press.one、steemit、幣乎等,而ulord白皮書裡面確實提到了人工智慧,但是介紹的也比較簡略,似乎沒有把人工智慧的推薦放到一個戰略高度。

對於人工智慧、區塊鏈以及物聯網,很多人應該都看到過下面這段描述。

人工智慧——生產力:解決效率問題

區塊鏈——生產關係:新的生產關係

物聯網——生產資料:提供數據

目前的基於區塊鏈內容分發系統,基本上都是在生產關係上下功夫,而忽略了人工智慧生產資料,即數據,如果僅僅只是改變生產關係,在分發效率上不下功夫,是無法戰勝今日頭條等基於人工智慧演算法的內容分發平台的。

下面介紹一下,為什麼內容分發平台,需要基於人工智慧的演算法進行分發,以及數據在人工智慧中的重要性。

人工智慧解決信息分發效率問題

人工智慧是解決效率問題,具體到內容分發系統,就是解決

一條用戶感興趣的信息(文字、圖片、視頻),以最快的速度推送給用戶

以文章為例,一個系統中的文章都是千萬甚至上億級別的數量,怎麼能夠在用戶一打開咱們的應用第一頁就讓用戶看到自己最想看到的內容呢?答案是顯而易見的,那就必須依靠人工智慧演算法實現高效率的個性化內容分發。

如果一個用戶到這個平台來獲取信息,需要自己反覆的刷新和查找才能發現一些自己感興趣的內容,甚至可能仍然很難發現自己感興趣的內容,那這個用戶會長時間待在這個平台嗎?

對比steemit,打開最上面之後「流行,最新,熱門,推廣」,左邊是「標籤和主題」,當我打開steemit的時候,默認是流行的內容,即頭部的內容,但是有多少人對這種頭部的內容感興趣呢?

那在該平台,用戶就得靠自己去點擊左邊的標籤或者搜索去獲取自己感興趣的內容了,但是當你點擊標籤之後,同樣是在該標籤下面的「流行,最新,熱門,推廣」,如果一個標籤下內容過多,那仍然很難獲得自己感興趣的內容。更別提搜索了,這是一種及其耗費腦力的事情,每天有1%的用戶去使用這個功能就不錯了。

而,以今日頭條為代表的基於人工智慧演算法的內容分發,用戶粘性非常強,半年前看到的數據是,他們每個用戶使用時長超過70分鐘,雖然很多人都吐槽演算法分發的結果,趨向於庸俗,看什麼就出什麼等等問題。但是這背後都是有原因的,而且是可以控制的,這個以後專門寫一篇文章解釋。

所以,這麼多基於區塊鏈的內容分發平台,卻很少看到有項目提到使用演算法實現個性化的內容分發,很是遺憾。也或許是他們的一個戰略,怕引起以今日頭條為代表的傳統內容分發平台的注意吧。

人工智慧更好的分髮長尾內容

在解決了信息分發效率問題之後,會有很多額外的好處會帶來,比如長尾內容得到很好的分發。這是極為關鍵的一點,因為現在很多基於區塊鏈的內容分發項目都存在這樣一個問題:

先加入平台的作者往往能夠獲得更多的獎勵

這是極其影響內容分發平台後期長遠發展的,因為新來的作者發表的內容,很難獲得展示的機會,或者展示的次數非常少。展示次數少可能並不是因為該作者文章寫得不好,而是因為新加入的用戶影響力不夠,且手上沒有多少這個平台的token等等原因(跟各個平台的獎勵機制有關)。那麼創作者就很難獲得平台的獎勵,從而大大降低他們在該平台持續寫作的動力。

這時候就需要人工智慧演算法去發現這些長尾內容了。比如我寫了一篇關於攝影的文章,如果是用演算法分發,那麼這篇文章有很大概率會被推送給那些真正喜歡攝影的用戶。對於寫作者,我的文章能夠被更多的展示,也能夠一些真正喜歡的人看到,從而獲得更多的獎勵。且普通的讀者,他們同時也能夠獲得自己感興趣的內容,一舉多得。

數據的重要性

現在談論人工智慧,很多人都喜歡談論演算法,比如AlphaGo的強化學習演算法等。然而對於人工智慧來說,數據和算力才是關鍵。大部分現在常用的所謂人工智慧演算法早在幾十年前就發明出來了,目前很多演算法上的進步,基本上都是在前人的基礎上精進一些,原理上並沒有本質的突破。而這些年來人工智慧的一些技術突破基本上都是靠大數據和強大的算力支撐。

如果press.one的App首頁是基於演算法推薦出來的內容,那麼我覺得可能是顛覆今日頭條的一個產品,如果首頁不是基於人工智慧演算法推薦的結果,press.one是不可能超越今日頭條的。基於演算法的推薦究竟有多重要?對比一下今日頭條和傳統新聞門戶的市值就很清楚了,短短5年今日頭條的市值已經達到了300億美金,而且在BAT的聯合絞殺之下,毫無衰敗的跡象,這就是最好的證明。

一般大平台的內容分發系統,用戶數據量實在太大(每天都是PB級的數據,1PB=1024TB=1024x1024GB),不太適合存儲在區塊鏈上,一般都是存儲在中心化的伺服器上,而用戶的核心關鍵「小數據」,即一些關鍵的用戶畫像數據,加密之後放到區塊鏈上,讓用戶對自己的這部分數據有控制權,甚至授權給其他機構以獲取收益。這樣,不僅創作文章、閱讀文章可以獲得收益,甚至我們產生的數據還能持續給我們帶來收益,這不僅是寫作者們的春天,也是用戶們的春天啊。

如果press.one的APP打開首頁是演算法推薦結果的話,我還是會繼續看好的。因為PressOne的「證明我是我」這個過程,產生了大量的數據,這些數據可以解決推薦系統里的一大難題——用戶冷啟動問題。目前很多內容分發平台都面臨一個問題,用戶來到我們平台之後,怎樣快速發現用戶的興趣,從而留住用戶。而PressOne不用太擔心這個問題,因為在「證明我是我」的過程中,綁定了大量的第三方賬號,綁定的這些第三方賬號可以獲取第三方網站(微博,twitter等)的數據,這樣很容易根據你最近發表的微博或者關注的微博賬號內容,推斷出你的喜好,從而留住用戶。這樣用戶冷啟動問題得到很好的解決,而且持續為個性化推薦提供數據。比如你在新浪微博上發了一條微博,立馬就可以根據你的微博內容,匹配相關的內容(文章,視頻等)。

基於區塊鏈的內容分發,由於其改變了利益的分配方式,或許很快就能吸引一大批用戶過來,但是如果沒有人工智慧助力,想要達到百億美金市值還是非常困難的。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 錨與帆 的精彩文章:

TAG:錨與帆 |