當前位置:
首頁 > 科技 > 用Sklearn創建機器學習分類器模型,不用數學公式也好理解

用Sklearn創建機器學習分類器模型,不用數學公式也好理解

GIF/1.7M

圖:pixabay

雷克大會(2017機器人與人工智慧大會)即將於2017年6月21日在北京新雲南皇冠假日酒店召開,活動報名渠道全面開啟,報名參會請點擊活動行鏈接

「機器人圈」導覽:如果你對機器學習感興趣,你一定不要錯過此文,作者以一個生動的例子,詳細闡述了Sklearn在創建分類器中的作用。文章編譯自kasperfred.com,作者是Kasper Fredenslund,文章略長,時長大約15分鐘,請耐心閱讀。

如果你熱愛機器學習,但是你又不知道該從何入手,也許你已經閱讀了一些理論,掌握了一定的基礎知識,可是你並不知道該如何將你學到的理論付諸實踐。

本教程的出發點就是助你「破冰」,引導你完成從導入和分析數據集到實施和訓練幾種不同的知名分類演算法,並評估其性能的完整過程。

我將使用最小量的離散數學,旨在使用直覺來表達細節,使用生動具體的例子而不是密集的數學公式來傳達思想。如果你想知道為什麼,可以查看詳情。

通讀文章之後你就會明白:

·使用sklearn導入並轉換.csv文件中的數據

·檢查數據集並選擇相關特徵

·使用sklearn在數據中訓練不同的分類器

·分析結果,旨在改善你的模型

我們將使用你可以從Kaggle下載的鳶尾花數據集(Iris flower dataset),根據其萼片和花瓣特徵對花種進行分類。

也許你沒有聽說過Kaggle,那我來介紹一下,Kaggle擁有大量酷炫的數據集,是數據科學家分享他們研究成果的地方,對於初學者來說,這可是學習時可能用到的寶貴資源。

鳶尾花數據集相當小(僅由150個均勻分布的樣本組成),而且表現良好,從而使其成為該項目的理想選擇。

你可能會問,為什麼使用這個毫無意義的數據集,而放棄其他那些有趣的數據集?原因是當我們學習數據分析時,使用簡單,表現良好的數據可以減少認知負荷,使我們能夠更好地理解我們正在使用的數據,從而使調試變得更容易。

當學習機器學習時,數據是沒有如何分析數據那麼重要的。

導入數據

一旦我們下載了數據,我們首先要做的就是載入它並檢查其結構。為此,我們將使用pandas。

Pandas是一個python庫,為我們提供了一個稱為DataFrame的數據處理通用介面。DataFrames本質上是具有行和列的excel電子表格,但是它沒有UI excel那麼花哨。相反,我們以編程方式進行所有數據操作。

除此之外,Pandas還具有附加的優點,從而使其可以以超級簡單的方式導入數據,因為它支持許多不同的格式,包括excel電子表格、csv文件,甚至HTML文檔。

導入我們要使用的庫之後,我們現在可以使用pandas中的read_csv()方法來讀取數據文件。

df = pd.read_csv("Iris.csv")

Pandas自動地將第一行解釋為列標題。如果你的數據集沒有指定第一行中的列標題,則可以將參數header=None傳遞給read_csv()函數,以將整個文檔解釋為數據。或者,你還可以傳遞列名稱作為header參數。

要確認pandas已經正確讀取csv文件,我們可以調用df.head()來顯示前五行。

print (df.head()) # Id SepalLengthCm SepalWidthCm PetalLengthCm PetalWidthCm Species # 0 1 5.1 3.5 1.4 0.2 Iris-setosa # 1 2 4.9 3.0 1.4 0.2 Iris-setosa # 2 3 4.7 3.2 1.3 0.2 Iris-setosa # 3 4 4.6 3.1 1.5 0.2 Iris-setosa # 4 5 5.0 3.6 1.4 0.2 Iris-setosa

我們可以看到,pandas確實正確地導入了數據。Pandas還有一個整潔的函數,df.describe()來計算每一列的描述性統計,如下所示:

print (df.describe()) # Id SepalLengthCm SepalWidthCm PetalLengthCm PetalWidthCm # count 150.000000 150.000000 150.000000 150.000000 150.000000 # mean 75.500000 5.843333 3.054000 3.758667 1.198667 # std 43.445368 0.828066 0.433594 1.764420 0.763161 # min 1.000000 4.300000 2.000000 1.000000 0.100000 # 25% 38.250000 5.100000 2.800000 1.600000 0.300000 # 50% 75.500000 5.800000 3.000000 4.350000 1.300000 # 75% 112.750000 6.400000 3.300000 5.100000 1.800000 # max 150.000000 7.900000 4.400000 6.900000 2.500000

由於我們可以重新確認沒有缺失的值,我們準備開始分析數據,目的是選擇最相關的功能。

特徵選擇

在熟悉數據集之後,現在是時候選擇我們將要用於我們的機器學習模型的特徵了。

其實,你有足夠的理由來詢問為什麼要進行特徵選擇?我們不能只是拋出我們在模型中的所有數據,並且讓它弄清楚什麼是相關的嗎?

為了回答這個問題,了解「特徵與信息是不一樣的」這一概念就變得很重要了。

假設你想從一組特徵中預測房子的價格。我們可以問問自己,知道房子里有多少個燈具和電源插座真的很重要嗎?人們買房子時有什麼想法嗎?它是否添加了任何信息,還是只是為了數據而考慮數據?

添加許多不包含任何信息的特徵使得模型不必要地變慢,並且冒著弄亂模型來嘗試適應無信息的特徵的風險。除此之外,具有許多特徵會增加你的模型過度擬合(稍後詳解)的風險。

正如經驗所示,你希望以儘可能少的特徵來獲得儘可能多的數據信息。

我們也可以使用諸如主成分分析(PCA)這樣的組合技術,將諸如房間數、居住面積和窗戶數量的相關特徵從上述示例組合到更高級別的主要組件中去,例如大小。雖然我們在本教程中不會使用這些技術,但應該知道它們是存在的。

確定特徵相關性的一個有效方式是,通過繪製它們與其他特徵的關係來實現。下面我們使用plot.scatter()子類方法繪製兩軸之間的關係。

上圖正確地顯示了萼片長度和萼片寬度之間的關係,然而,很難看出是否有任何的分組,因為沒有指示一個數據點所代表的花的真實種類。

不過幸運的是,使用seaborn FacetGrid是很容易實現這一點的,我們可以使用列來驅動散點的顏色或色調。

sns.FacetGrid(df, hue="Species").map(plt.scatter, "SepalLengthCm", "SepalWidthCm").add_legend() plt.show()

大家可以看到,這樣結果就好多了。

使用上述函數與不同特徵的組合,你會發現PetalLengthCm和PetalWidthCm聚集在相當明確的組中,如下圖所示。

不過值得注意的是,為何iris-versicolor和iris-virginca之間的界限直觀看起來是很模糊的。這可能會給一些分類器帶來麻煩,而且這值得在訓練時被牢記。

我怎麼知道該如何創建這些圖?

我在谷歌上搜索了一下。

在搜索機器學習的時候,你會發現能夠查找到的東西是至關重要的。有無數的東西要記住。花費大量時間嘗試記住這些事情是非常低效的。而查看你所不確定的東西則會顯得更有效率,並且會讓你的大腦自動記住你經常使用的東西。

能夠快速查找事物比記住整個sklearn文檔更有價值。

好的一面是,sklearn是可擴展的記錄,組織良好,且容易查找。除此之外,Sklearn還有一個非常和諧一致的界面;你可能會在整個教程中注意到它。

如果關聯不同的特徵以便選擇最好的,這聽起來像是一份浩大的工程,需要完成很多工作,不過我們應該注意的是,有自動化的方法可以來完成這個工作的,諸如kbest,和遞歸特徵消除(recursive feature elimination),而這兩個都可以在sklearn中得到。

準備由sklearn分類器訓練的數據

現在我們已經選擇了我們要使用的特徵(PetalLengthCm和PetalWidthCm),我們需要準備數據,以便用sklearn使用它。

目前,所有的數據都是在DataFrame中編碼的,但是sklearn並不適用於pandas的DataFrames,所以我們需要提取特徵和標籤,並將它們轉換成numpy數組。

分離標籤是非常簡單的,可以使用np.asarray()只用一行就可以完成。

labels = np.asarray(df.Species)

我們現在可以停止操作,因為我們可以使用上面的標籤來訓練分類器,但是,由於物種值的數據類型不是數字,而是字元串,我們在評估模型時就會遇到問題。

幸運的是,sklearn提供了一個漂亮的工具,可以將標籤字元串編碼為數字表示。 它通過遍歷標籤數組,並將第一個唯一標籤編碼為0,然後將下一個唯一標籤編碼為1,依此類推……

使用labelencoder如下標準sklearn介面協議,你會很快熟悉。

from sklearn.preprocessing import LabelEncoder le = LabelEncoder() le.fit(labels) # apply encoding to labels labels = le.transform(labels)

下表顯示了數據轉換之前和之後的標籤,並使用df.sample(5)進行創建。

After Before 139 2 Iris-virginica 87 1 Iris-versicolor 149 2 Iris-virginica 45 0 Iris-setosa 113 2 Iris-virginica

可以看到每個獨一的字元串標籤現在都有一個與它相關聯的獨一整數。如果我們想要返回字元串標籤,我們可以使用le.inverse_transform(labels)。

特徵的編碼遵循類似的過程。

首先,我們要從DataFrame中刪除我們不想要的所有特徵列。 我們通過使用drop()方法來實現這個操作。

df_selected = df.drop(["SepalLengthCm", "SepalWidthCm", "Id", "Species"], axis=1)

現在我們只剩下PetalLengthCm和PetalWidthCm列。

由於我們要使用多列,所以我們不能簡單地使用np.asarray()。相反,我們可以使用to_dict()方法和sklearn的DictVectorizer。

df_features = df_selected.to_dict(orient="records")

用於DictVectorizer類的sklearn介面與LabelEncoder類似。 一個明顯的區別是與fit_transform一起使用的.toarray()方法。

from sklearn.feature_extraction import DictVectorizer vec = DictVectorizer() features = vec.fit_transform(df_features).toarray()

既然我們已經有了數字特徵和標籤數組,剩下的要做的最後一件事就是把數據分成訓練集和測試集。

為什麼在訓練所有數據的時候要有一個測試集?這可能是你會問的問題。

有一個測試集有助於驗證模型,並可以檢查模型無法從訓練數據中泛化的過度擬合,而不是只是記住答案;如果我們希望在未知數據上做得很好的話,其實這不並是理想的做法。測試集的目的是模擬模型即將在現實世界中呈現的未知數據。因此,不使用測試集進行訓練非常重要。

有時候,在使用特別容易過度擬合的演算法時,你還可以使用一個驗證集,這是你想要避免甚至在考慮的,因為有時在優化模型時,有關測試集的信息可能會從調整模型參數(通常稱為超參數)缺失,從而導致測試集以及訓練集過度擬合。

但是,對於本教程來說,我們將只使用一個測試集和一個訓練集。

Sklearn有一個工具可以幫助將數據分成測試集和訓練集。

from sklearn.model_selection import train_test_split features_train, features_test, labels_train, labels_test = train_test_split( features, labels, test_size=0.20, random_state=42)

有趣的是test_size和random_state這兩個參數。測試大小參數是將保留用於測試的總數據集的數字分數。一個80/20的分配通常被認為是一個很好的經驗法則,但可能需要在後來做些調整。

另一個值得注意的變數是random_state。它的值並不是很重要,因為它只是一個種子數,但隨機數據的行為是重要的。

為什麼?

數據集是按類型進行排序的,因此,如果我們只使用前兩種進行訓練的話,那麼在使用以前從未見過的第三種進行測試時,該模型就不會發揮作用了。

如果你以前從未見過某種事物,那麼很難對它進行正確分類。

選擇分類器

既然我們已經將數據分成了測試集和訓練集,那麼我們可以開始選擇一個分類器了。

當考慮我們的數據時,隨機森林(Random Forest)分類器是一個很好的起點。隨機森林是簡單、靈活的,因為它們與各種數據都可以進行很好的執行操作,而且很少出現過度擬合。因此,它們往往是一個很好的起點。

隨機森林的一個顯著的缺點是它們在本質上是非確定性的,所以每次訓練它們時都不一定會產生相同的結果。

雖然隨機森林是一個很好的起點,但在實際操作中,你將經常使用多個分類器,並查看哪些會獲得良好的結果。

你可以培養一種感覺,哪些演算法通常在什麼問題表現得出色,從而來限制猜測;當然,從數學表達式出發做第一原則分析也是有助於這一點的實現的。

訓練分類器

既然我們已經選擇好一個分類器了,那現在就可以去實現它了。

在sklearn中實現一個分類器,需要遵循三個步驟。

·導入

·初始化

·訓練

在代碼中,看起來像下圖這樣:

# import from sklearn.ensemble import RandomForestClassifier # initialize clf = RandomForestClassifier() # train the classifier using the training data clf.fit(features_train, labels_train)

如果我們不知道一個分類器的準確度,即使它訓練有素也是沒有太多用處的。

我們可以通過在分類器上使用score()方法,從而快速了解該模型對數據的有效性。

# compute accuracy using test data acc_test = clf.score(features_test, labels_test) print ("Test Accuracy:", acc_test) # Test Accuracy: 0.98

嗯,結果是98%!

這個結果對於三行代碼來說還是不錯的。當然這不是最難的問題,但考慮到這是我們的第一次嘗試,98%的結果還是很好的。

注意:如果得到一個稍微不同的結果,你不必擔心,它可以通過生成一個隨機決策樹,並對其預測進行平均,從而預期這個分類器是可以起作用的。

我們還可以計算訓練數據的準確性,並比較兩者以了解模型過度擬合的程度。該方法類似於我們如何計算測試精度,只有這次我們使用訓練數據作為評估。

# compute accuracy using training data acc_train = clf.score(features_train, labels_train) print ("Train Accuracy:", acc_train) # Train Accuracy: 0.98

我們看到,我們訓練數據的準確性是98%,表明模型不是過度擬合的。

但對於那些完全嶄新的數據來說又是怎樣的呢?

假設我們已經找到了一個新的、獨特的鳶尾花,我們測量它花瓣的長度和寬度。

假設我們測量長度為5.2cm,寬度為0.9cm,我們怎樣才能找出哪種才是使用我們的新訓練模型的呢?

答案是利用predict()方法,如下圖所示。

flower = [5.2,0.9] class_code = clf.predict(flower) # [1]

結果顯示,這個方法很棒。

我們現在知道分類物種。然而,其有用性是有限的,因為它不容易被人理解。

如果它返回的結果是物種標籤,那就容易得多了。

記得之前標籤編碼器上的inverse_transform()嗎?我們可以使用它來解碼ID組,如下所示:

flower = [5.2,0.9] class_code = clf.predict(flower) # [1] decoded_class = le.inverse_transform(class_code) print (decoded_class) # ["Iris-versicolor"]

所以我們看到新花是變色鳶尾的一種。

評估結果

即使我們可以看到測試的準確度在98%,但模型會造成什麼樣的錯誤呢?這看起來似乎也非常有趣。

分類模型有兩種方法無法預測正確的結果:假陽性(False Positive) 和假陰性(False Negative)。

假陽性是當它真的是假的時候卻被猜測是真的。

假陰性是當它是真的時候卻被猜測是假的。

既然我們沒有運行一個二進位分類器(預測「是」或「否」),而是一個分類器,猜測一系列標籤中的屬於哪一個,每個錯誤都將是對某些標籤來說是假陽性,而對其它標籤來說是假陰性。

在機器學習中,我們經常使用精確率(Precision)和召回率(Recall)來代替假陽性和假陰性。

精確率試圖嘗試減少假陽性,而召回率嘗試減少假陰性。它們都是0到1之間的十進位數或分數,越高越好。

通常,精確率和召回率如下計算:

精確率

召回率

Sklearn已經內建了計算精確率和召回率的得數功能,所以我們不必。

from sklearn.metrics import recall_score, precision_score precision = precision_score(labels_test, pred, average="weighted") recall = recall_score(labels_test, pred, average="weighted") print ("Precision:", precision) # Precision: 0.98125 print ("Recall:", recall) # Recall: 0.98

如上所述,該模型的假陰性比假陽性稍多,但是通常是均勻分裂的。

調整分類器

目前,我們的Random Forests分類器僅使用默認參數值。然而,為了增加控制,我們可以改變一些或所有的值。

一個有趣的參數是min_samples_split。 此參數表示拆分決策樹所需的最小樣本。

從根本上說,模型捕獲的細節越少,同時也增加了過度擬合的可能性。而如果你給它一個很高的值,你將更好地記錄趨勢,而忽略細節。

默認情況下,它設置為2。

降低參數值沒有什麼意義,而且模型似乎沒有過度擬合,但是我們仍然可以嘗試將參數值從2提高到4。

當我們創建分類器時,我們可以指定分類器的參數:

clf = RandomForestClassifier( min_samples_split=4 )

就是這樣的。

Train Accuracy: 0.98 Test Accuracy: 1.0 Precision: 1.0 Recall: 1.0

當我們重新訓練模型時,我們看到測試精度已經提高到完美的100%,但訓練準確率仍然在98%,表明還有更多的信息需要提取。

我們可以改變的另一個參數是標準參數,它表示如何測量分割的質量。

默認情況下,它設置為測量雜質的「gini」,但是sklearn也支持測量信息增益的熵。

我們可以使用熵來訓練分類器,而不是像我們之前那樣設置參數min_samples_split。

clf = RandomForestClassifier( min_samples_split=4, criterion="entropy" )

當我們用新的參數重新訓練模型時,沒有任何改變,這表明可能標準函數不是這種類型的數據/問題的重要影響因素。

Train Accuracy: 0.98 Test Accuracy: 1.0 Precision: 1.0 Recall: 1.0

你可以在Sklearn的文檔頁面上閱讀Random Forest Classifier的所有調整參數。

其他分類器

改進模型的另一種方法是改變演算法。

假設我們要使用支持向量機。

使用sklearn的支持向量分類器只需要我們改變兩行代碼:導入和初始化。你可以閱讀所有調整參數為Sklearn的文檔頁面Random Forest Classifier。

from sklearn.svm import SVC clf = SVC()

就是這樣。

使用默認設置運行此功能可以使隨機森林分類器具有可比較的結果。

Train Accuracy: 0.95 Test Accuracy: 1.0 Precision: 1.0 Recall: 1.0

我們也可以使用此方法使用sklearn支持的任何其他分類器。

結論

我們已經涵蓋了從數據讀取到pandas數據框架中的所有內容,以使用sklearn的數據中的相關功能來訓練分類器,並評估模型的精度來調整參數,如有必要,更改分類器演算法。

你現在應該用必要的工具來調查未知數據集,並構建簡單的分類模型,即使我們還不熟悉的演算法。

來源:kasperfred.com

作者:Kasper Fredenslund


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

機器學習記錄舞步 保存民族舞蹈
運維要失業了?機器學習可自動優化你的資料庫管理系統
企業應該怎樣選擇數據科學和機器學習平台?
28款GitHub最流行的開源機器學習項目
JavaScript 中的 10 個機器學習示例

TAG:機器學習 |

您可能感興趣

用Uber的方式管理機器學習模型
機器學習SVM模型分類技術應用
利用flask將機器學習模型嵌入到web系統中
資源 | 用PyTorch搞定GluonCV預訓練模型,這個計算機視覺庫真的很好用
用PyTorch搞定GluonCV預訓練模型,這個計算機視覺庫真的很好用
你的模型可以輕鬆使用TPU了!DeepMind 開源分散式機器學習庫TF-Replicator
thinkphp框架利用MVC模式使用模型查詢資料庫數組的四種寫法
如何用 Python 和機器學習訓練中文文本情感分類模型?
Darkon:可更好理解深度學習模型的開源工具包
測試機器學習模型不用寫代碼!谷歌「what-if」工具輕鬆搞定
不用寫代碼,就能訓練測試深度學習模型!Uber開源AI工具箱Ludwig
Creo 的模型應用
機器學習模型中的 bug 太難找?DeepMind 呈上了三種好方法
如何使用 Kubernetes 輕鬆部署深度學習模型
從預處理到部署:如何使用Lore快速構建機器學習模型
Train the Trainer:利用強化學習優化基於模型的強化學習演算法
What-If 工具:無需寫代碼,即可測試機器學習模型
Roofline Model 與深度學習模型的性能分析
教程 | 如何使用 Kubernetes 輕鬆部署深度學習模型
Github 項目推薦 | 微軟開源 MMdnn,模型可在多深度學習框架間轉換