深度學習與人工智慧革命:part I
摘要: 人工智慧始於思想實驗,深入了解AI和深度學習的歷史,並了解它們為什麼現在取得快速的發展。
深度學習(DL)和人工智慧(AI)已經不再是科幻小說中遙不可及的目標,目前已成為了互聯網和大數據等領域的前沿研究內容。
由於雲計算提供強的計算能力、提出的先進演算法以及充裕的資金,這創造了五年前難以想像的新技術。此外,層出不窮的豐富數據也使得深度學習成為了現實。
相關內容分成四個部分,主要深入探索深度學習、資料庫的選擇以及相關實際商業應用問題等。
在第I部分中,將介紹人工智慧、機器學習和深度學習三者之間的歷史;
在第II部分中,將討論人工智慧、機器學習和深度學習三者之間的區別;
在第III部分中,將深入研究深度學習以及在為新項目選擇資料庫時需要評估的關鍵事項;
在第V部分中,將討論深度學習為何使用MongoDB,並提供相關使用實例;
由於本文內容是第I部分內容,主要介紹人工智慧的歷史。如果讀者想快速將四部分的內容全部看完,可以下載本文的附件。
人工智慧的歷史
我們目前生活在人工智慧開始嶄露頭角的時代,人工智慧不僅創造了擾亂工業和變革工作場所的可能性,而且還可以解決一些社會上的挑戰。比如自動駕駛可以挽救數萬人的生命、增加老年人和殘疾人的流動性,精準醫學可以開展個體化治療以延長生命,智能建築有助於減少碳排放並節約能源等,這些只是人工智慧承諾的一些潛在的好處,並且大多已經取得相關突破性的進展。
到2018年,Gartner公司估計機器將佔全球所有業務內容的20%,並預計60億個聯網設備將產生大量的數據。人工智慧對理解這一切顯得至關重要,AI不再局限於科幻電影中,人工智慧和機器學習正在被現實世界中的相關業務採用。
自從艾倫·圖靈(Alan Turing)於1950年寫了篇論文《計算機器與智能》以來,人工智慧一直是人們的一個夢想。在這篇論文中,圖靈提出了一個根本性的問題——「機器能思考嗎?」,並考慮計算機是否能像人類那樣進行思考。人工智慧領域的研究真正誕生於1956年的夏天,一組聚集在達特茅斯學院(Dartmouth College)的研究人員發起了一系列的研究項目,他們的目標是讓計算機做出像人類一樣行為。「人工智慧」這一詞也是第一次在這所學院被創造出來,該會議的概念形成了一個合法的跨學科交流的研究領域。
在接下來的十年中,隨著新技術的發展受到當代技術的限制,人工智慧的發展經歷了繁榮和蕭條周期。在1968年,科幻電影《2001:太空漫遊》中的智能電腦——HAL9000說了一句著名的話,「對不起,戴夫,恐怕我不能那麼做」,這幫助AI在主流意識中留下了不可磨滅的印象。在20世紀70年代末,電影《星球大戰》中智能機器人幫助拯救銀河的場景進一步鞏固了AI在主流文化中的地位。
但直到20世紀90年代末,人工智慧才開始從科幻傳說轉變為現實世界中的實際應用。1997年初,由IBM的深藍國際象棋程序擊敗了當時的世界冠軍Garry Kasparov,人工智慧在上世界90年代迎來了一個新的時代,AI的研究進展也開始加速。研究人員變得開始關注人工智慧的相關子問題,並利用它來解決現實世界中的應用任務,比如圖像和語音識別等。研究人員沒有試圖構造由專家知識決定的邏輯規則,而是開始研究如何通過演算法學習邏輯規則本身,這一趨勢有助於將研究重點轉移到人工神經網路(ANNs)中。在20世紀40年代,人工神經網路被發明成「鬆散地」模仿人腦的學習方式。當反向傳播梯度下降演算法得到改進時,人工神經網路的研究於1986年開始變得流行起來,反向傳播演算法減少了人工神經網路訓練時需要大量手工調參問題,因此反向傳播演算法(BP)也是一種有效的減少人工智慧訓練時間的方法。
即使在演算法方面取得新的進展,但神經網路仍然受到技術上的限制,這些限制也影響了ANNs在過去幾十年的應用情況。直到2000年中期,人工智慧才重新掀起一次科技浪潮。在2006年,多倫多大學的Geoffrey Hinton提出對人工神經網路進行修改,並將其研究成果稱為「深度學習(Deep Neural Network)」。Hinton對人工神經網路添加多個隱藏層並對每層進行數學優化,逐層學習使得模型訓練變得更快。在2012年,斯坦福大學的Andrew Ng進一步推動了深度學習的發展,他建造了一個簡陋的利用圖形處理單元(GPU)實現深度神經網路的模型,Andrew Ng發現集群GPU模擬訓練深度學習模型比通用的CPU訓練快得多,對於同樣的任務而言,GPU可能只需要一天的時間,而CPU需要幾周的時間才能產生相同的結果,這是由於GPU是大規模並行架構,而且能同時處理多個任務。
從本質上講,將軟體演算法與高性能的硬體相結合已經醞釀了幾十年,這也將迎來AI正在經歷的快速發展。
人工智慧現在為什麼高速發展?
目前有四個主要因素推動了人工智慧的發展:
1.更豐富的數據。人工智慧需要大量的數據來學習,社交的數字化為其進步提供了可利用的原材料。諸如物聯網(感測器等)、社交和移動計算、科學和學術界、醫療保健以及許多新的應用程序等來源的大數據可以用來訓練人工智慧模型。不出意料,目前在人工智慧領域投資較多的公司,比如亞馬遜、蘋果、百度、谷歌、微軟等,同時也是數據較多的公司。
2.更便宜的計算成本。在過去,即使人工智慧相關演算法得到改進,硬體仍然是一個制約因素。由於硬體和新的計算模型取得新的突破,尤其是GPU,加速了人工智慧的發展過程。GPU由於其自身的並行處理能力及高效的執行矩陣乘法的方式使得其在人工智慧社區得到普及應用,這也締造了英偉達這一優秀公司的行業地位。 最近,英特爾在Xeon和Xeon Phi處理器中增加了新的深度學習指令,這允許其能更好地進行並行和高效的矩陣運算。隨著人工智慧技術的應用,硬體廠商現在需要專門針對人工智慧進行開發、設計和製造相關產品,這些進步將導致更好的硬體設計、性能、功耗以及配置文件。
3.更複雜的演算法。更高效的性能和更便宜的計算花費使得科研人員能夠開發和訓練更高級的演算法,這是因為他們不再受限於過去硬體約束的限制。因此,深度學習現在正以驚人的精確度解決特定的問題(例如,語音識別、圖像分類、手寫識別、欺詐檢測等),更先進的演算法繼續推動人工智慧技術的發展。
4.更廣泛的投資。在過去的幾十年中,人工智慧的研究和發展主要局限於大學和研究院等機構。資金缺乏以及人工智慧問題的困難性導致其發展甚微。如今,人工智慧投資不再局限於大學實驗室,而是在許多領域都在進行發展——政府、風險資本支持的初創公司、互聯網巨頭和各行業的大型企業等。
作者信息
Mat Keep,產品營銷總監,目前就職於MongoDB團隊。
本文由阿里云云棲社區組織翻譯。
文章原標題《Deep Learning and the Artificial Intelligence Revolution: Part 1》,作者:Mat Keep,譯者:海棠,審閱。
TAG:雲棲社區 |