當前位置:
首頁 > 最新 > 那些想要轉行AI的人:送你一份人工智慧入門指南

那些想要轉行AI的人:送你一份人工智慧入門指南

人工智慧是什麼?人工智慧為何重要?我們應該畏懼人工智慧嗎?為什麼突然之間所有人都在談論人工智慧?

你可能會從網上知道人工智慧如何為亞馬遜和Google的虛擬助理提供支持,或者人工智慧如何一步步地取代所有的工作(有爭議的),但是這些文章極少很好的解釋人工智慧是什麼(或者機器人是否將要接班)。本文將對人工智慧做出解釋,這份簡明指南將隨著領域的發展和重要的概念出現進行更新和改進。

人工智慧是什麼?

人工智慧是具有學習機制的軟體或計算機程序。人工智慧使用這種知識在新的情況下做出決定,就像人類一樣。構建該軟體的研究人員嘗試編寫可以讀取圖像,文本,視頻或音頻的代碼,使得人工智慧從中學習一些東西。 一旦機器學到了,知識就可以在別的地方使用。 如果一個演算法學會識別某人的臉,那麼可以在Facebook照片中找到它們。 在現代AI中,學習通常被稱為「訓練」(將在後文進行介紹)。

人類自然會學習複雜的想法:我們可以看到像蘋果這樣的對象,然後在以後識別一個不同的蘋果。 機器是非常字面化的 - 電腦沒有對「類似」的靈活概念。人工智慧的目標是使機器減少僅基於文本而形成的概念。 機器很容易判斷兩張蘋果的圖像或兩個句子是否完全相同,但人工智慧旨在從不同的角度或不同的光線識別同一蘋果的圖片; 它捕捉視覺角度去識別蘋果。這被稱為「泛化」或基於數據的相似性形成想法,而不僅僅是基於AI所看到的圖像或文本。 更普遍的想法可以應用於AI以前沒有看到的事情。

卡內基梅隆大學計算機科學教授亞歷克斯·魯德尼奇(Alex Rudnicky)說:「人工智慧的目標是將複雜的人類行為降低到可以計算的一種形式。 「這反過來又使得我們能夠建立對人類有用的可以從事複雜活動的系統。」

今天距離人工智慧還有多遠?

人工智慧研究人員仍在努力解決這個問題的基礎。 我們如何教電腦來識別他們在圖像和視頻中看到的內容? 之後,識別如何進入理解 - 不僅產生「蘋果」這個詞,而且知道蘋果是一種與桔子和梨相關的食物,人類可以吃蘋果,可以用蘋果做飯,並用它們來製作蘋果餡餅,並且聯繫到約翰尼·蘋果派的故事,諸如此類。 還有一個理解語言的問題——詞根據語境有多重含義,定義總是在演變,每個人的說法都有一點點差別。 電腦如何理解這種不固定的,千變萬化的語言構造?

由於介質不同,人工智慧的進展速度也不相同。現在,我們看到了在理解圖像和視頻能力的驚人增長,這是一個業界稱之為計算機視覺的領域。但是,這一進步對其他人工智慧的理解並沒有多大幫助,這是一個被稱為自然語言處理的領域。這些領域正在發展有限的智能,這意味著人工智慧在處理圖像、音頻或文本方面具有強大的功能,但卻無法從這三者中學習到同樣的方法。一個不可知論的學習形式是一般智力,這是我們在人類身上看到的。許多研究人員希望,各個領域的進步將揭示更多關於我們如何讓機器學習的共享真理,最終融合成統一的人工智慧方法。

人工智慧為什麼重要?

一旦人工智慧學會了如何從圖像中識別出一個蘋果,或者從音頻片段中轉錄出一個語音片段,它就可以被應用於其他軟體中,做本應該需要人類來做的決策。它可以用來識別和標記你的朋友在Facebook的照片,你(一個人) 本應該手工做的事情。它可以從自動駕駛汽車或者你的車的倒車影像里識別出另一輛車或者一個街頭標誌。它可以用來定位農業生產中應該移除的劣質農產品。這些任務,僅僅基於圖像識別,通常是由用戶或公司提供軟體的人完成的。

如果一個任務節省了用戶的時間,它是一個功能,如果它能節省了公司里工作的人的時間甚至完全消除了一份工作,那麼它就是一個極大節約了成本。有一些應用程序,比如在銷售分析的幾分鐘內處理數百萬個數據點,如果沒有機器,是不可能實現的,這意味著以前從未有過的新信息的潛力。這些任務現在可以通過機器在任何時間和任何地點快速、廉價地完成。它是人類曾經完成的任務的複製,對於無限可伸縮的低成本勞動力來說,這是不可否認的經濟利益。

卡內基梅隆大學人類計算機交互實驗室的教授Jason Hone說,雖然人工智慧可以複製人類的任務,同時它也有能力開啟新的勞動。「汽車是馬的直接替代品,但在中長期內,它還帶來了許多其他用途,比如用於大型運輸的半卡車,傢具搬運貨車,小型貨車,帶折蓬的汽車。」Hong說「同樣地,人工智慧系統在短期內將直接取代常規任務,但在中長期內我們將看到它和汽車一樣的戲劇性使用。

就像Gottlieb Daimler和Carl Benz沒有考慮到汽車將如何重新定義城市的建造方式,或者污染或肥胖的影響,我們還沒有看到這種新型勞動力的長期影響。

AI為什麼現在這麼火爆,而不是30(或者60)年前?

關於人工智慧應該如何學習的許多想法實際上已經超過了60年。上世紀50年代,像Frank Rosenblatt、Bernard Widrow和Marcian Hoff這樣的研究人員首先研究了生物學家認為大腦的神經元是如何工作的,以及他們在數學上做的事情。我們的想法是,一個主要的方程可能無法解決所有問題,但是如果我們像人腦那樣,使用了很多連接起來的方程會如何呢?最初的例子很簡單:通過數字電話線路分析1和0,然後預測接下來會發生什麼。(這項由Widrow和Hoff在普林斯頓大學完成的研究,仍然被用來減少電話連接的回聲)。

2006年,達特茅斯會議五十年後,當事人重聚達特茅斯。左起:摩爾,麥卡錫,明斯基,賽弗里奇,所羅門諾

數十年來,計算機科學界的許多人認為,這個想法永遠不會解決更複雜的問題,而現如今它是主要科技公司的實現人工智慧的基礎,從谷歌、亞馬遜到Facebook,再到微軟。回顧過去,研究人員現在意識到,計算機還沒有複雜到足以模擬我們大腦中的數十億神經元,而且我們需要大量的數據來訓練這些神經網路,正如我們了解的那樣。

這兩個因素,計算能力和數據,在過去的10年里才得以實現。在2000年代中期,圖形處理器單元(GPU)公司NVIDIA表示,他們的晶元非常適合運行神經網路,並開始使得AI在其硬體上運行變得更加容易。研究人員發現,如果能夠使用更快、更複雜的神經網路,就可以提高準確度。

然後在2009年,人工智慧研究員Fei-Fei Li發布了一個名為ImageNet的資料庫,它包含了超過300萬個有組織的圖片,在裡面還添加了標籤。她認為,如果這些演算法有更多的例子來尋找到模式之間的關係,那麼它就能幫助他們理解更複雜的想法。她在2010年開始了一場ImageNet的競賽,到2012年,研究人員Geoff Hinton使用了數百萬張圖片來訓練神經網路,以超過10%的準確率的巨大優勢戰勝了其它的應用。正如Li所預測的,數據是關鍵。Hinton還把神經網路堆在另一個上面,一個只是找到了形狀,而另一個則看了紋理,等等。這些被稱為深度神經網路,或深度學習,也就是今天你在新聞中聽到的關於人工智慧的消息。一旦科技行業看到了結果,人工智慧的繁榮就開始了。數十年來,一直致力於深度學習的研究人員成為了科技行業新的搖滾明星。截止2015年,谷歌有超過1000個項目使用了某種機器學習技術。

我們應該恐懼人工智慧嗎?

看過終結者這樣的電影后,人們很容易就會害怕像天網這樣的全能的邪惡的AI。在人工智慧研究領域,天網被稱為一般的超級智能,或者人工通用智能,這類軟體在各個方面都要比人腦更強大。

由於計算機能夠擴展,這意味著我們能夠製造出更強、更快的計算機,然後把他們連接起來。恐懼是來自於這些機器人大腦的計算能力可能會增長到一個深不可測的水平,如果他們真的聰明到那個地步,他們就會無法控制,並會繞過任何試圖關閉他們的人。這就是埃隆馬斯克和史蒂芬霍金這樣極其聰明的人所擔心的世界末日。正如馬斯克所言,雖然它們在某些領域的確擁有智能,但大多數主流人工智慧研究人員都對召喚惡魔的說法不以為然。儘管研究人員把學習的基本原理打破了,例如他們改變了如何去理解模式背後的意義,然後把這些新的理解組織成一個功能性的世界觀,目前還沒有證據表明電腦會有需求,慾望或著意志來存活,Facebook 人工智慧研究中心的領導Yann Lecun說道。

「當我們受到威脅,我們嫉妒,我們想要獲得資源,比起陌生人我們更喜歡我們的近親,等等這些行為時,我們會變得更暴力,這些都是進化中為了我們的生存而建立起來的。除非我們很明確的把這些基本行為建立到智能機器里,否則它們不會有這些行為。」他在Quora上寫道。

沒有證據表明計算機會認為人類是一個威脅,因為沒有給計算機定義這樣的威脅。也許人類能夠定義它,並告知機器在一些參數中運作,這些參數在功能上就像一個生存的意志,而這個意志並不存在。

人工智慧之機器學習體系匯總

【直接上乾貨】此處梳理出面向人工智慧的機器學習方法,主要體現機器學習方法和邏輯關係,理清機器學習脈絡,後續文章會針對機器學習系列講解演算法原理和實戰。抱著一顆嚴謹學習之心,有不當之處歡迎斧正。

監督學習 Supervised learning

人工神經網路 Artificial neural network

自動編碼器 Autoencoder

反向傳播 Backpropagation

玻爾茲曼機 Boltzmann machine

卷積神經網路 Convolutional neural network

Hopfield網路 Hopfield network

多層感知器 Multilayer perceptron

徑向基函數網路(RBFN) Radial basis function network(RBFN)

受限玻爾茲曼機 Restricted Boltzmann machine

回歸神經網路(RNN) Recurrent neural network(RNN)

自組織映射(SOM) Self-organizing map(SOM)

尖峰神經網路 Spiking neural network

貝葉斯 Bayesian

樸素貝葉斯 Naive Bayes

高斯貝葉斯 Gaussian Naive Bayes

多項樸素貝葉斯 Multinomial Naive Bayes

平均一依賴性評估(AODE) Averaged One-Dependence Estimators(AODE)

貝葉斯信念網路(BNN) Bayesian Belief Network(BBN)

貝葉斯網路(BN) Bayesian Network(BN)

決策樹 Decision Tree

分類和回歸樹(CART) Classification and regression tree (CART)

迭代Dichotomiser 3(ID3) Iterative Dichotomiser 3(ID3)

C4.5演算法 C4.5 algorithm

C5.0演算法 C5.0 algorithm

卡方自動交互檢測(CHAID) Chi-squared Automatic Interaction Detection(CHAID)

決策殘端 Decision stump

隨機森林 Random forest

SLIQ

線性分類 Linear classifier

Fisher的線性判別 Fisher』s linear discriminant

線性回歸 Linear regression

Logistic回歸 Logistic regression

多項Logistic回歸 Multinomial logistic regression

樸素貝葉斯分類器 Naive Bayes classifier

感知 Perceptron

支持向量機 Support vector machine

無監督學習 Unsupervised learning

人工神經網路 Artificial neural network

對抗生成網路

前饋神經網路 Feedforward neurral network

極端學習機 Extreme learning machine

邏輯學習機 Logic learning machine

自組織映射 Self-organizing map

關聯規則學習 Association rule learning

先驗演算法 Apriori algorithm

Eclat演算法 Eclat algorithm

FP-growth演算法 FP-growth algorithm

分層聚類 Hierarchical clustering

單連鎖聚類 Single-linkage clustering

概念聚類 Conceptual clustering

聚類分析 Cluster analysis

BIRCH

DBSCAN

期望最大化(EM) Expectation-maximization(EM)

模糊聚類 Fuzzy clustering

K-means演算法 K-means algorithm

k-均值聚類 K-means clustering

k-位數 K-medians

平均移 Mean-shift

OPTICS演算法 OPTICS algorithm

異常檢測 Anomaly detection

k-最近鄰演算法(K-NN) k-nearest neighbors classification(K-NN)

局部異常因子 Local outlier factor

半監督學習 Semi-supervised learning

生成模型 Generative models

低密度分離 Low-density separation

基於圖形的方法 Graph-based methods

聯合訓練 Co-training

強化學習 Reinforcement learning

時間差分學習 Temporal difference learning

Q學習 Q-learning

學習自動 Learning Automata

狀態-行動-回饋-狀態-行動(SARSA) State-Action-Reward-State-Action(SARSA)

深度學習 Deep learning

深度信念網路 Deep belief machines

深度卷積神經網路 Deep Convolutional neural networks

深度遞歸神經網路 Deep Recurrent neural networks

分層時間記憶 Hierarchical temporal memory

深度玻爾茲曼機(DBM) Deep Boltzmann Machine(DBM)

堆疊自動編碼器 Stacked Boltzmann Machine

生成式對抗網路 Generative adversarial networks

遷移學習 Transfer learning

傳遞式遷移學習 Transitive Transfer Learning

其他

集成學習演算法

Bootstrap aggregating (Bagging)

AdaBoost

梯度提升機(GBM) Gradient boosting machine(GBM)

梯度提升決策樹(GBRT) Gradient boosted decision tree(GBRT)

降維

主成分分析(PCA) Principal component analysis(PCA)

主成分回歸(PCR) Principal component regression(PCR)

因子分析 Factor analysis

Python 的戰略定位是什麼?其實很簡單,就是要做一種簡單、易用但專業、嚴謹的通用組合語言,或者叫膠水語言,讓普通人也能夠很容易的入門,把各種基本程序元件拼裝在一起,協調運作。

正是因為堅持這個定位,Python 始終把語言本身的優美一致放在奇技妙招前面,始終把開發者效率放在CPU效率前面,始終把橫向擴張能力放在縱向深潛能力之前。長期堅持這些戰略選擇,為 Python 帶來了其他語言望塵莫及的豐富生態。

比如說,任何一個人,只要願意學習,可以在幾天的時間裡學會Python基礎部分,然後干很多很多事情,這種投入產出比可能是其他任何語言都無法相比的。

再比如說,正是由於 Python 語言本身慢,所以大家在開發被頻繁使用的核心程序庫時,大量使用 C 語言跟它配合,結果用 Python 開發的真實程序跑起來非常快,因為很有可能超過 80% 的時間系統執行的代碼是 C 寫的。

相反,如果 Python 不服氣,非要在速度上較勁,那麼結果很可能是裸速提高個幾倍,但這樣就沒人有動力為它開發 C 模塊了,最後的速度遠不如混合模式,而且很可能語言因此會變得更複雜,結果是一個又慢又醜陋的語言。

更重要的是,Python 的包裝能力、可組合性、可嵌入性都很好,可以把各種複雜性包裝在 Python 模塊里,暴露出漂亮的介面。

很 多時候,一個程序庫本身是用 C/C++ 寫的,但你會發現,直接使用 C 或者 C++ 去調用那個程序庫,從環境配置到介面調用,都非常麻煩,反而隔著一層,用其python 包裝庫更加清爽整潔,又快又漂亮。這些特點到了 AI 領域中,就成了 Python 的強大優勢。

Python 也藉助 AI 和數據科學,攀爬到了編程語言生態鏈的頂級位置。Python 與 AI綁在一起,對它們來說,無論是電子商務、搜索引擎、社交網路還是智能硬體,未來都只是生態鏈下游的數據奶牛、電子神經和執行工具,都將聽命於自己。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 未來的智能 的精彩文章:

TAG:未來的智能 |