當前位置:
首頁 > 新聞 > 韓家煒在數據挖掘上開闢的「小路」是什麼

韓家煒在數據挖掘上開闢的「小路」是什麼

雷鋒網 AI 科技評論按:前些日子,數據挖掘領域的巨擘韓家煒教授 [1] 在中國計算機學會(CCF)主辦的第 87 期 CCF 學科前沿講習班(CCF Advanced Disciplines Lectures,簡稱 CCF - ADL)[2] 做了一場精彩報告,報告題目叫做《大規模語料庫的多維分析》(Multi-Dimensional Analysis of Massive Text Corpora)。[3] 筆者私以為這場報告對廣大做數據挖掘的老師和學生有很大的指導意義,韓家煒在這場報告中講述了他以及他帶領的學生在過去以及未來十多年中研究方向的主線,即下面這張圖:

韓家煒在數據挖掘上開闢的「小路」是什麼

文章中還會多次遇到,這是這次演講內容的一張「地圖」,也是數據挖掘領域的一張「地圖」

韓家煒認為要想將現有的無結構的 Big Data 變成有用的 Knowledge,首先要做的就是將數據結構化。他提出兩種結構化數據的形式,一種是異質網路(Heterogeneous Network),另一種是多維文本立方體(Multi-dimensional Text Cube)。由這種結構化數據生成 Knowledge 已經證明是很強大的,但是如何將原始無結構的數據變成有結構的數據(Network 或 Text Cube)則是非常困難的。

在 Network/Text Cube 到 Knowledge 的問題上,韓家煒等人已經做了很多研究工作,也已經由此獲得了很多獎項;在無結構文本數據到有結構 Network/Text Cube 的路上他們也做出了許多嘗試和成果,現在仍在進行中。

韓家煒認為這是一條很長的路,他們現在只是在這條路上突破了幾個可以往前走的口子,還只是一條小路,要變成一條康庄大道則需要各國學者共同努力。

下面我們一起來了解一下韓家煒教授報告的詳細內容。

[1] 韓家煒,美國伊利諾伊大學香檳分校(UIUC)計算機系教授,IEEE和ACM Fellow,曾任美國ARL資助的信息網路聯合研究中心主任。曾擔任KDD、SDM和ICDM等國際知名會議的程序委員會主席,創辦了ACM TKDD學報並任主編。在數據挖掘、資料庫和信息網路領域發表論文600餘篇。出版了數據挖掘專著《Data Mining: Concepts and Techniques》,成為數據挖掘國內外經典教材。曾獲ICDE 2002傑出貢獻獎、SIGKDD 2004最佳創新獎、 2009年麥克道爾獎(the McDowell Award)。在谷歌學術的 H-index中,名列全球計算機科學領域高引作者前三。

[2] 雷鋒網作為獨家合作媒體,全程報道了ADL 87 的演講內容(十三位講者內容簡介見《CCF ADL 87 講習班回顧:韓家煒等 13 位大牛全方位解析社交網路和數據挖掘》,視頻請移步CCF-ADL87:社交網路與數據挖掘)。

[3] 這次講習班還邀請到了數據挖掘領域中的另一位巨擘:Philip S Yu。Philip 教授在報告中詳細講解了他多年來所倡導的「廣度學習」(Broad Learning)的概念和方法,並用三個相關的研究案例來說明如何將深度學習和廣度學習結合起來使用。

整體概覽

韓家煒教授本次的報告大致分為五個部分,如下圖他列出的梗概。

韓家煒在數據挖掘上開闢的「小路」是什麼

分別為:


1、如何從大數據到知識。在這裡韓家煒提出了他們研究的三部曲;

2、如何由 Network/Text Cube 到知識。韓家煒這裡簡單舉了他們之前的一些研究,可以看到Network/Text Cube 有多麼強大,這也側面反映了為什麼在挖掘數據時要先把數據結構化;

3、如何從無結構文本中挖掘出結構。韓家煒認為從無結構文本中挖掘出結構是當前數據挖掘研究的重中之重。他就他們研究中的四個方面做了深入的解讀;

4、如何構建 Text Cube。承接前一步,挖掘出結構後,韓家煒講解了如何構建多維 Text Cube;

5、研究方向總結。最後韓家煒總結說,由 Big Data 走向 Actionable Knowledge 目前仍是一條小路,未來的康庄大道須各國學者來共同努力。

一、如何由Big Data 走向Actionable Knowledge

革命需要指導原則,研究也是。韓家煒首先講述他們研究的總體思路。

1.1 大量無結構數據普遍存在

在我們這個時代,由於互聯網的發展,產生了大量數據。這些數據儘管有大量是在表格中存放,但絕大部分(超過 80%)都是以文本等無結構或半結構的方式存儲著。所以挖掘大數據,首先就是要研究如何系統地挖掘這些無結構的大量文本數據。

1.2 如何系統地挖掘大數據

韓家煒認為若想從 Big Data 中挖掘出有用的知識,就必須研究如何將無結構的文本變成有結構的文本,然後再從有結構的文本中挖掘知識。

針對這種想法,他們提出了三個關鍵詞:


Structuring:將無結構的文本轉化成有結構的、有類型的、關聯的實體或關係

Networking:利用大量有結構的關係構建網路

Mining:在關係和網路上進行挖掘

1.3 數據挖掘三部曲

韓家煒認為他們做數據挖掘的研究工作可以總結為三部曲:


(1)從文本數據中挖掘隱藏的結構。文本數據中隱藏著大量的結構,這步工作就是將這些數據挖掘出來。

(2)將文本數據轉化為有類型的 Network/Text Cube。將文本數據變成有結構、有類型的數據(Network/Text Cube)

(3)挖掘 Network/Text Cube 生成有用的知識。最後一步才是挖掘。

韓家煒在數據挖掘上開闢的「小路」是什麼

為什麼要經過中間的一步,將無結構文本先轉化為 Network/Text Cube,而不是直接對文本進行挖掘呢?韓家煒隨後舉了兩個例子來說明這樣做的好處。

二、由Network/Text Cube到知識2.1 Network 的強大

韓家煒在數據挖掘上開闢的「小路」是什麼

如果將 DBLP 的文獻信息(例如論文、作者、出版地等)整合到 Network 中,那麼顯然這個網路中蘊涵著豐富的信息,例如我們可以通過排名函數從網路中挖掘出誰是 Web 研究的領軍人物,或者通過相似性搜索函數從網路中挖掘出一個學者的同行;通過關係預測來挖掘一個學者未來的合作者將是誰;通過網路演化來發掘 Data Mining 學科是如何出現和發展的等等。

韓家煒在數據挖掘上開闢的「小路」是什麼

這裡面韓家煒講了一個故事。2010 年韓被 ECML-PKDD 邀請去做一個 keynote,報告的主題為《結構就是信息:挖掘結構信息網路》(Structure is Informative: On Mining Structured Information Networks)。報告結束後的提問環節,坐在下面的 Christos Faloutsos 舉手問道:「你做的這個 Network 很 powerful,但是你能否預測到我明年寫什麼文章?」韓回答道:「我連自己的都預測不到,更別提你的啦。」於是當時下面哄堂大笑。回去後韓家煒將這個笑話講給當時還在他手下讀博士的孫怡舟聽。孫怡舟很嚴肅地認為這不是一個簡單的笑話。經過分析和討論後孫怡舟定了一個新課題,預測 Christos 今後幾年會有哪些新的 authors 合作。

這個課題導致孫怡舟隨後提出了我們現在廣泛使用的 Meta path 的概念,並於 2011 年在 ASONAM 上發表了一篇影響力巨大的文章。在文章中,孫怡舟預測了裴建的合作者。根據裴建在 [1996-2002] 年間的文章(作為特徵集)準確地預測了他在 [2003-2009] 年間會有哪些合作者(測試集),排名前五的預測中只有一個沒有出現在測試集中。

另外一個是預測錯誤嗎?並不是,裴建和 Osmar 也有合作,只不過他們合作的 paper 發表在 2011 年;沒有被統計進測試集中而已。

這就說明如果有一個 Network 將 Big Data 結構化後,其預測能力(或者別的能力)將是非常強的。

2.2 Text Cube的強大

韓家煒在數據挖掘上開闢的「小路」是什麼

我們知道如果在 Database(也即 Data Cube)上做統計和分析是非常方便的。現在分析無結構的 Text,如果能夠將 Text 放入到一個類似的多維 Cube 中,那麼很顯然這將對分析 Text 起到很好的作用。

Text Cube 其中一個應用就是 Comparative Summarization。例如將 NY Times 的新聞放入到這樣一個 Cube 中,我們想要總結「2016」、「China」、「Economy」的信息。與這些關鍵詞相關的 Documents 有很多很多,沒有人原意去一個一個地查看。如果只是簡單地用統計的方法來獲取信息,就會發現有很多不是「Economy」的信息,例如「Hong Kong」、「United States」等。而如果我們事先已經將這些 Text 放入到 Cube,則根據 Integrity、Popularity、Distinctness 等標準,通過與每個維度上相鄰的 Cell 做比較,就可以很容易地找到非常準確地信息。

韓家煒在數據挖掘上開闢的「小路」是什麼

使用這種方法,韓家煒領導的小組通過 NY Times 在 2016 年的新聞很容易就挖掘出了當時美國兩黨辯論過程中的主要議程(例如

韓家煒在數據挖掘上開闢的「小路」是什麼

一個很有意思的故事是,韓家煒在 UCLA 做了關於上述研究的報告後,引起了 UCLA 醫學教授的興趣。UCLA 在心臟病方面的研究在全美範圍內是非常先進的。

這些教授告訴韓家煒說,心臟病其實不是一類病,而是六類病;每類疾病大多都是由某種蛋白質引起的。他們希望韓家煒能夠幫助他們從大量文獻中找出哪種蛋白質與哪類心臟病有緊密關聯。

這個任務對這些醫學教授們來說是非常艱難的,因為每年會有超過 100 萬的生物醫學論文發表,而每個針對某類心臟病的研究總會列出一大堆相關蛋白質,從如此龐大的信息中找出對應某類心臟病的蛋白質是極為困難的。

討論過後,韓家煒等人從 PubMed(一個醫學文獻庫)中抓取了「心血管疾病」相關的十年的數據,大約有 50 萬篇 paper。他們使用這 50 萬篇 paper、6 類心臟病以及醫學教授們列出的 250 種蛋白質,根據和挖掘 NY Times 一樣的演算法,很快就得到了針對每一類心臟病的相關蛋白質排序,如下表(僅列出 Top 5)。

這些醫學教授看到結果後高興壞了。首先,韓家煒等人列出的結果中,排名 No.1 的蛋白質和他們已知的情況完全符合,這說明這種演算法有效。但是他們的經驗表明有些病人(例如小孩)按照這種蛋白質病因去治療往往無效,這說明這些病人的這類心臟病並不是由該蛋白質引起的。所以韓家煒等人列出的排名 No.2、No.3 等的蛋白質就給他們一個很大的線索,他們可以集中精力針對這些蛋白質去做臨床試驗,這大大地促進了他們的研究。

這樣一個簡單的例子說明 Text Cube 很有用,而且有著巨大的潛力。

三、從無結構文本中挖掘結構

上述兩個方向的研究(「從 Network 中找知識」和「從 Text Cube 中找知識」)表明,如果有了結構化的 Network/Text Cube,那麼從中挖掘知識就相當容易。但是現實世界中,我們所擁有的數據大多是無結構的 Text,如何將這些無結構的 Text 變成有結構的 Network/Text Cube 仍然是未解決的問題。

韓家煒團隊的人員近幾年主要的研究工作正是圍繞著這個問題進行的,即怎樣從 Text 中挖掘 Phrases、怎樣從 Text 中挖掘 Typed Entities、以及怎樣把這些 Phrases/Typed Entities 變成 Network/Text-cube(第四節內容)。

3.1 Phrase Mining

韓家煒在數據挖掘上開闢的「小路」是什麼

單獨的一個字意義往往不明顯,如果能夠從 Text 中挖掘出片語(Phrase),那麼對挖掘文本結構將有很重要的意義。韓家煒團隊的人員先後提出了三種方法,分別為無監督的 TopMine、弱監督的 SegPhrase和遠程監督的 AutoPhrase。這些研究的代碼在 Github 上都有公開,任何人都可以下載下來使用或重複其工作。

(1)TopMine:頻率模式挖掘+統計分析

這項工作主要是對語料庫文本的 Topic 進行挖掘。但是它的方法不同於以往採用 Uni-gram 的方法,而是將 Topic 挖掘分成了兩個步驟:通過 Phrase Mining 對文本進行分割;隨後進行基於 Phrase 約束的 Topic 模型。

對文本進行 Phrase Mining 的一個基本思想就是,Phrase 中的字同時出現的頻率較高。具體來說就是這麼一個公式:

舉個例子,對於一個論文標題「Markov Blanket Feature Selection for Support Vector Machines」,不同的分割方法可能會將它劃分到不同的 Topic 裡面,例如僅僅根據「Vector」,可能會把這篇文章劃分到數學、物理的 Topic 中。但是顯然「Support Vector Machines」是一個整體,它是屬於計算機的 Topic。根據上述公式的迭代,則可以將這個標題進行如下的 Phrase 分割。

韓家煒在數據挖掘上開闢的「小路」是什麼

這種方法有多好呢?韓家煒又講了一個故事。David Blei 是做 Topic Model 非常權威的專家,某次去 UIUC 訪問,看到了這個結果之後非常震驚,因為他從來沒有見過這麼好的結果。

結果好的原因,歸結起來在於 TopMine 將 Topic Model 分為了兩步,先做了 Phrase Mining,然後才做 Topic model。這種方法避免了長度同意的 gram 將一個 Phrase 中的 Word 分割開。

(2)SegPhrase:弱監督、高質量的 Phrase Mining

韓家煒的學生劉佳硉認為 TopMine 的方法完全是無監督的,如果有少量的 Label 數據可能會在很大程度上提高 Topic Model 的結果。於是他精心選擇了 300 個高質量的 Labels(150 個正例,150 個反例)。

這篇論文發表在 SIGMOD 2015 上後,不久 Yelp 就給他們頒發了一個「Grand prize of 2015 Yelp Data Set Challenge」的獎,並且這個方法還被應用在了 TripAdvisor 等平台上。

(3)AutoPhrase:自動的 Phrase Mining

韓家煒的學生商靜波認為人工挑選 300 個高質量 Labels 還是挺費精力的,於是選擇使用 Wikipedia 的詞條作為 Label,這樣可以很快就得到幾十萬的 Labels。

這種方法的一個問題是,有一些 Phrase 並不在 Wikipedia 中,這些 Phrase 並不一定是 Nagative Label。他們通過 ranking 解決了這個問題。

韓家煒在數據挖掘上開闢的「小路」是什麼

這種方法的結果與其他方法相比有顯著提升。

3.2 識別Typed Entity

韓家煒在數據挖掘上開闢的「小路」是什麼

知道了 Phrase 以後,還需要讓 Phrase make sense,也即識別實體、標註 Type。按照韓家煒的話:

Identifying token span as entity mentions in documents and labeling their types

——Enabling structured analysis of unstructured text corpus

這有幾個難點:

  • 領域限制。用一般語料獲得的實體標註在特定領域、動態領域或者新興的領域無法很好的工作。

  • 名稱的歧義性。多個實體可能共享同一個表面名字(Surface Name,例如「Washington」,它可能是州、市、人名、球隊名等)

  • 上下文稀疏。對同一個關係可能有許多種表示方法。(想想中文有多少中表示體育比賽結果的方法)

(1)ClusType

韓家煒講了他們發表在 KDD 2015 上的一篇文章。在這篇文章中他們構建了如下一張異質結構圖,其中 c1、c2、c3 代表實體的 Surface Name,p1、p2 ……代表文本中 Surface Name 左右的 Phrase,而 m1、m2 ……代表實體(Entity Mention)。每個 Entity Mention 都是沒有歧義的獨立對象。

韓家煒在數據挖掘上開闢的「小路」是什麼

將 Surface Name 、Phrase 和 Entity Mention 連接起來,其中兩個對象越有可能共享相同的 label,連接它們的邊的權重就越大。

基於這樣一張異質圖,他們將兩個任務聯合起來構建了一個基於圖的半監督學習:

  • 在圖中進行類型演化。通過聚類的同義關係 Phrase 推斷連接起來的實體類別(例如,「Kabul is an ally of Washington」,如果已知 Kabul 的類別是「government」,那麼可以推斷這裡的「Washington」的類別也是「government」)。

  • 將關係 phrase 進行聚類。反過來,已經標註類型的實體也可以作為很好的 feature 來對 phrase 進行聚類。

將這兩個步驟循環進行將得到很好的結果。從結果中可以看出其 F1-score 遠遠超出了其他 NLP 領域頂尖的研究。

韓家煒在數據挖掘上開闢的「小路」是什麼

(2)Cotype:going deeper

上述的類別往往比較粗糙,例如只區分了「person」、「food」、「job」、「event」、「government」等等,粒度比較大。以特朗普為例,特朗普的大的類別是「person」,但是作為一個「person」,特朗普可以是一個政治家,也可以是一個商人或者藝術家等。如何進行更精細的類別分類呢?方法就是 Embedding。

韓家煒在數據挖掘上開闢的「小路」是什麼

韓家煒舉了一個他們在 WWW 2017 上發表的一篇文章。[4] 在這篇文章中,他們發明了叫做 CoType 的方法,將 Entity 和 Phrase 全部都 Embedding 到一個低維空間中(而不僅僅是 Embedding Entity)。

韓家煒在數據挖掘上開闢的「小路」是什麼

例如在這個 Embedding 空間中,如果要標記的「Trump」和「Hillary」相近,則很明顯應該給這個「Trump」標記為「politician」;如果是和企業相關的 Phrase 相近,那麼就標記為「businessman」。通過 Entity 和 Phrase 的相互促進來提升整體的標記內容。

韓家煒在數據挖掘上開闢的「小路」是什麼

[4] 論文中舉的例子是「Obama」,這裡用的是韓家煒報告中的例子。

3.3 尋找Meta Pattern

韓家煒在數據挖掘上開闢的「小路」是什麼

韓家煒考慮地其實更遠,不光是找 Phrase,也不光是找 Type,還要找文本中的 Pattern,通過 Pattern 來從文本中自動並大量地挖掘結構信息。

何謂 Pattern 呢?其實通俗點兒來說,就是「套路」。我們語言很多都是在套用模板,例如「the government of USA」,「the government of China」,「the goverment of Burkina Faso」等等。你可能一下子不知道「Burkina Faso」是什麼,但是通過類似的模式,你知道這肯定是一個國家。

同樣的,這對機器來說也並不難。只要有 Pattern,機器可以迅速地從文本中挖掘出相同 Pattern 的大量信息。韓家煒舉了他們實驗室讀博士後的蔣朦在 KDD 2017 上發表的文章。

這篇工作也是在 Phrase 的工作上來做的,但這是 Meta Pattern 的 Meta Phrase。

韓家煒在數據挖掘上開闢的「小路」是什麼

從上面這個圖可以很清晰看出他們的工作流程:對語料文本進行 Meta Pattern 分割,得到 Meta Pattern;通過 Meta Pattern 可以找到大量相符的三元組;再通過這些三元組數據進一步地改進 Meta Pattern,例如提升粒度或獲得同義的 Meta Pattern。值得注意的是,這種方法並不需要大量的標註數據,也不需要相應的領域知識,同樣也不需要搜索日誌。

他們將這種方法應用到新聞語料庫中,一下子就把所有的國家和領導人,以及大大小小的公司和他們的 CEO 挖了出來。

韓家煒在數據挖掘上開闢的「小路」是什麼

同樣的方法應用在醫學研究的語料中,迅速就挖掘出相應的疾病和治療方案,細菌和抗體。這項工作的思想很簡單,但是結果卻很 amazing。

韓家煒在數據挖掘上開闢的「小路」是什麼

3.4 建立層級分類

韓家煒在數據挖掘上開闢的「小路」是什麼

在以上工作的基礎上,很多人也在研究如何建立起 Entity 的層級分類。人類經過訓練後可以很容易地給不同的 Entity 進行分類,例如 Machine Learning、Computer Science 顯然不是同一個層級的。能否讓機器根據文本的 Title 來自動生成 Entity 的層級分類呢?

韓家煒說,自動建立層級分類其實「挺難的」。他們經過多種嘗試後,提出了兩種有效的方法:Adaptive Spherical Clustering 和 Local Embedding。

(1)Adaptive Spherical Clustering

韓家煒在數據挖掘上開闢的「小路」是什麼

通過考慮 Popularity 和 Concentration 兩個特性,設計一個排名模型,通過排名模型選出每一個聚類的代表性 Phrases(Representative Phrases)。隨後將那些背景性 Phrases(Background Phrases)向上一級或向下一級(根據 Embedding 後距離的遠近)推移。最重要的一點就是,不強求每個 Phrase 必須屬於某個 Cluster。

(2)Local Embedding

韓家煒在數據挖掘上開闢的「小路」是什麼

所謂 Local Embedding,就是說只選用與 Cluster 相關的 Phrases 進行 Embedding。之所以這樣,是因為當把所有的 Phrase 放在一起進行 Embedding(Global Embedding),其他 Cluster 的 Phrases 就會產生很多雜訊,這會湮沒真正有用的東西。而如果使用 Local Embedding 則可以把真正有用的 Phrase 顯露出來。

四、構建多維Text Cube

以上這些研究的目的是什麼呢?韓家煒說,主要是想要建立一個多維 Text Cube。

韓家煒在數據挖掘上開闢的「小路」是什麼

一個可能的疑問是,前面 2.2 節不是已經有了建好的 Text Cube 嗎,為什麼還要構建?我們需要注意的是,那個 Text Cube 是 NY Times 的數據,這是已經按照 Topic(sport、economic、political、science...)或者 Location(China、USA、Japan...)等標籤構建好的 Text Cube;而真實的世界中的文本則大多並沒有標籤,這需要我們自己來構建。

一個現實的問題就是,假如給你 100 萬個 Documents,而只有少量幾個標籤(例如上述 Location、Topic 的標籤),那麼你能否自動地生成成百上千的標籤,並將文本正確地放入到這些標籤構建的多維 Text Cube 中呢?

首先去做的當然是 Embedding,但是已知的標籤太少了。所以韓家煒他們建了一個 L-T-D(Label-Term-Document)圖,其中的 Term 是從文本中抽取出來的。

韓家煒在數據挖掘上開闢的「小路」是什麼

我們查看每個 Term 在每個已知 Label 中的分布情況。

韓家煒在數據挖掘上開闢的「小路」是什麼

例如「stock market」,它在每個 Location 維度中分布的概率基本一致,這說明「stock market」這個 term 不屬於 Location 這個維度;而另一方面,它在 Topic 維度的分布則有很強的差別性。根據一個稱為 Dimension-Focal Score 的標準可以判別出它是屬於 economy 標籤下的。

依據上面的方法以及該 term 在這個標籤下的普遍程度(如果大於某個值),則可以判斷出這個 Term(例如「stock market」)屬於相應標籤維度下的一個標籤。藉此,我們可以自動地生成大量的標籤,並同時將文本放入到這些標籤構建的多維度 Text Cube 當中。

韓家煒在數據挖掘上開闢的「小路」是什麼

構建出這樣的 Text Cube 之後,再去進行數據挖掘就會方便很多。

五、研究方向總結

韓家煒在數據挖掘上開闢的「小路」是什麼

韓家煒最後做了報告總結,這裡我們將韓的原話整理如下,稍做修改:

我們認為,要把大的數據變成大的 Knowledge,其中很重要的一條就是要有結構。我們找到兩種結構,一個是 Network,一個是 Text Cube。用這兩種結構導出 Knowledge,我們已經有很好的例子,而且很 powerful。當然這兩種結構在某種程度上是應該結合起來的,現在我們有人在研究怎樣將它們結合起來。

真實的數據到結構化數據,再到有用的知識,這仍然是一條很長的路。我們這麼多年做 Data Mining 也是沿著這條路走的。從 2000 年我們出的第一本書(註:2011 年第三版),隨後 Philip、Faloutsos 和我在 2010 年合著了《Link Mining》,再往後是孫怡舟做的《Mining Heterogeneous Information Network》;隨後是王箎做的《Mining Latent Entity Structures》;最近呢,是劉佳硉、商靜波他們把 Phrase mining 做了出來(《Phrase Mining From Massive Text and Its Application》)。這些以後都會成為書。我們接下來有任翔他們,還會接著往下走。

在這條路上,我們現在只是找到了幾個口子可以往前走。現在這還不是一條大路,只是一條小路。要想變成一條康庄大道,需要大家共同努力。這條路通寬了,將來我們就可以從大量的無結構的文本,變成大量的有用的知識。這是我要講的重點。

韓家煒在數據挖掘上開闢的「小路」是什麼

感謝韓家煒教授在百忙之中對本文的指正。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

AI科技評論年度巨獻,五大特輯連接學術&產業
肖磊:2018年數字貨幣價格波動將更加劇烈

TAG:雷鋒網 |