每月好書:Python機器學習演算法
和老規矩一樣,本月月考的獎品就是《Python機器學習演算法》兩本。不知道什麼是月考的同學,請補習下面文章:
每月送書活動來襲,免費哦!
規則就說到這裡,下面是書籍介紹。
-----------割------------
Python機器學習演算法
(深入分析機器學習中的常用演算法,兼顧演算法、理論與實踐,幫助讀者快速掌握演算法精髓!)
趙志勇 著
ISBN 978-7-121-31319-6
2017年7月出版
定價:69.00元
364頁 16開
編輯推薦
探索數據的內在價值,洞悉人工智慧背後的技術!
內容提要
《Python機器學習演算法》是一本機器學習入門讀物,注重理論與實踐的結合。全書主要包括6個部分,每個部分均以典型的機器學習演算法為例,從演算法原理出發,由淺入深,詳細介紹演算法的理論,並配合目前流行的Python語言,從零開始,實現每一個演算法,以加強對機器學習演算法理論的理解、增強實際的演算法實踐能力,最終達到熟練掌握每一個演算法的目的。與其他機器學習類圖書相比,《Python機器學習演算法》同時包含演算法理論的介紹和演算法的實踐,以理論支撐實踐,同時,又將複雜、枯燥的理論用簡單易懂的形式表達出來,促進對理論的理解。
目錄
0 緒論 1
0.1 機器學習基礎 1
0.1.1 機器學習的概念 1
0.1.2 機器學習演算法的分類 2
0.2 監督學習 3
0.2.1 監督學習 3
0.2.2 監督學習的流程 3
0.2.3 監督學習演算法 4
0.3 無監督學習 4
0.3.1 無監督學習 4
0.3.2 無監督學習的流程 4
0.3.3 無監督學習演算法 5
0.4 推薦系統和深度學習 6
0.4.1 推薦系統 6
0.4.2 深度學習 6
0.5 Python和機器學習演算法實踐 6
參考文獻 7
第一部分 分類演算法
1 Logistic Regression 10
1.1 Logistic Regression模型 10
1.1.1 線性可分VS線性不可分 10
1.1.2 Logistic Regression模型 11
1.1.3 損失函數 13
1.2 梯度下降法 14
1.2.1 梯度下降法的流程 14
1.2.2 凸優化與非凸優化 15
1.2.3 利用梯度下降法訓練Logistic Regression模型 17
1.3 梯度下降法的若干問題 18
1.3.1 選擇下降的方向 18
1.3.2 步長的選擇 19
1.4 Logistic Regression演算法實踐 20
1.4.1 利用訓練樣本訓練Logistic Regression模型 20
1.4.2 最終的訓練效果 22
1.4.3 對新數據進行預測 23
參考文獻 26
2 Softmax Regression 27
2.1 多分類問題 27
2.2 Softmax Regression演算法模型 28
2.2.1 Softmax Regression模型 28
2.2.2 Softmax Regression演算法的代價函數 28
2.3 Softmax Regression演算法的求解 29
2.4 Softmax Regression與Logistic Regression的關係 31
2.4.1 Softmax Regression中的參數特點 31
2.4.2 由Softmax Regression到Logistic Regression 31
2.5 Softmax Regression演算法實踐 32
2.5.1 對Softmax Regression演算法的模型進行訓練 33
2.5.2 最終的模型 34
2.5.3 對新的數據的預測 35
參考文獻 39
3 Factorization Machine 40
3.1 Logistic Regression演算法的不足 40
3.2 因子分解機FM的模型 42
3.2.1 因子分解機FM模型 42
3.2.2 因子分解機FM可以處理的問題 43
3.2.3 二分類因子分解機FM演算法的損失函數 43
3.3 FM演算法中交叉項的處理 43
3.3.1 交叉項係數 43
3.3.2 模型的求解 44
3.4 FM演算法的求解 45
3.4.1 隨機梯度下降(Stochastic Gradient Descent) 45
3.4.2 基於隨機梯度的方式求解 45
3.4.3 FM演算法流程 46
3.5 因子分解機FM演算法實踐 49
3.5.1 訓練FM模型 50
3.5.2 最終的訓練效果 53
3.5.3 對新的數據進行預測 55
參考文獻 57
4 支持向量機 58
4.1 二分類問題 58
4.1.1 二分類的分隔超平面 58
4.1.2 感知機演算法 59
4.1.3 感知機演算法存在的問題 61
4.2 函數間隔和幾何間隔 61
4.2.1 函數間隔 62
4.2.2 幾何間隔 62
4.3 支持向量機 63
4.3.1 間隔最大化 63
4.3.2 支持向量和間隔邊界 64
4.3.3 線性支持向量機 65
4.4 支持向量機的訓練 66
4.4.1 學習的對偶演算法 66
4.4.2 由線性支持向量機到非線性支持向量機 68
4.4.3 序列最小最優化演算法SMO 69
4.5 支持向量機SVM演算法實踐 74
4.5.1 訓練SVM模型 74
4.5.2 利用訓練樣本訓練SVM模型 81
4.5.3 利用訓練好的SVM模型對新數據進行預測 85
參考文獻 88
5 隨機森林 89
5.1 決策樹分類器 89
5.1.1 決策樹的基本概念 89
5.1.2 選擇最佳劃分的標準 91
5.1.3 停止劃分的標準 94
5.2 CART分類樹演算法 95
5.2.1 CART分類樹演算法的基本原理 95
5.2.2 CART分類樹的構建 95
5.2.3 利用構建好的分類樹進行預測 98
5.3 集成學習(Ensemble Learning) 99
5.3.1 集成學習的思想 99
5.3.2 集成學習中的典型方法 99
5.4 隨機森林(Random Forests) 101
5.4.1 隨機森林演算法模型 101
5.4.2 隨機森林演算法流程 102
5.5 隨機森林RF演算法實踐 104
5.5.1 訓練隨機森林模型 105
5.5.2 最終的訓練結果 109
5.5.3 對新數據的預測 110
參考文獻 113
6 BP神經網路 114
6.1 神經元概述 114
6.1.1 神經元的基本結構 114
6.1.2 激活函數 115
6.2 神經網路模型 116
6.2.1 神經網路的結構 116
6.2.2 神經網路中的參數說明 117
6.2.3 神經網路的計算 117
6.3 神經網路中參數的求解 118
6.3.1 神經網路損失函數 118
6.3.2 損失函數的求解 119
6.3.3 BP神經網路的學習過程 120
6.4 BP神經網路中參數的設置 126
6.4.1 非線性變換 126
6.4.2 權重向量的初始化 126
6.4.3 學習率 127
6.4.4 隱含層節點的個數 127
6.5 BP神經網路演算法實踐 127
6.5.1 訓練BP神經網路模型 128
6.5.2 最終的訓練效果 132
6.5.3 對新數據的預測 133
參考文獻 136
第二部分 回歸演算法
7 線性回歸 138
7.1 基本線性回歸 138
7.1.1 線性回歸的模型 138
7.1.2 線性回歸模型的損失函數 139
7.2 線性回歸的最小二乘解法 140
7.2.1 線性回歸的最小二乘解法 140
7.2.2 廣義逆的概念 141
7.3 牛頓法 141
7.3.1 基本牛頓法的原理 141
7.3.2 基本牛頓法的流程 142
7.3.3 全局牛頓法 142
7.3.4 Armijo搜索 144
7.3.5 利用全局牛頓法求解線性回歸模型 145
7.4 利用線性回歸進行預測 146
7.4.1 訓練線性回歸模型 147
7.4.2 最終的訓練結果 149
7.4.3 對新數據的預測 150
7.5 局部加權線性回歸 152
7.5.1 局部加權線性回歸模型 152
7.5.2 局部加權線性回歸的最終結果 153
參考文獻 154
8 嶺回歸和Lasso回歸 155
8.1 線性回歸存在的問題 155
8.2 嶺回歸模型 156
8.2.1 嶺回歸模型 156
8.2.2 嶺回歸模型的求解 156
8.3 Lasso回歸模型 157
8.4 擬牛頓法 158
8.4.1 擬牛頓法 158
8.4.2 BFGS校正公式的推導 158
8.4.3 BFGS校正的演算法流程 159
8.5 L-BFGS求解嶺回歸模型 162
8.5.1 BGFS演算法存在的問題 162
8.5.2 L-BFGS演算法思路 162
8.6 嶺回歸對數據的預測 165
8.6.1 訓練嶺回歸模型 166
8.6.2 最終的訓練結果 168
8.6.3 利用嶺回歸模型預測新的數據 168
參考文獻 171
9 CART樹回歸 172
9.1 複雜的回歸問題 172
9.1.1 線性回歸模型 172
9.1.2 局部加權線性回歸 173
9.1.3 CART演算法 174
9.2 CART回歸樹生成 175
9.2.1 CART回歸樹的劃分 175
9.2.2 CART回歸樹的構建 177
9.3 CART回歸樹剪枝 179
9.3.1 前剪枝 179
9.3.2 後剪枝 180
9.4 CART回歸樹對數據預測 180
9.4.1 利用訓練數據訓練CART回歸樹模型 180
9.4.2 最終的訓練結果 182
9.4.3 利用訓練好的CART回歸樹模型對新的數據預測 185
參考文獻 187
第三部分 聚類演算法
10 K-Means 190
10.1 相似性的度量 190
10.1.1 閔可夫斯基距離 191
10.1.2 曼哈頓距離 191
10.1.3 歐氏距離 191
10.2 K-Means演算法原理 192
10.2.1 K-Means演算法的基本原理 192
10.2.2 K-Means演算法步驟 193
10.2.3 K-Means演算法與矩陣分解 193
10.3 K-Means演算法實踐 195
10.3.1 導入數據 196
10.3.2 初始化聚類中心 197
10.3.3 聚類過程 198
10.3.4 最終的聚類結果 199
10.4 K-Means++演算法 200
10.4.1 K-Means演算法存在的問題 200
10.4.2 K-Means++演算法的基本思路 202
10.4.3 K-Means++演算法的過程和最終效果 204
參考文獻 205
11 Mean Shift 206
11.1 Mean Shift向量 206
11.2 核函數 207
11.3 Mean Shift演算法原理 209
11.3.1 引入核函數的Mean Shift向量 209
11.3.2 Mean Shift演算法的基本原理 210
11.4 Mean Shift演算法的解釋 212
11.4.1 概率密度梯度 212
11.4.2 Mean Shift向量的修正 213
11.4.3 Mean Shift演算法流程 213
11.5 Mean Shift演算法實踐 217
11.5.1 Mean Shift的主過程 218
11.5.2 Mean Shift的最終聚類結果 219
參考文獻 221
12 DBSCAN 222
12.1 基於密度的聚類 222
12.1.1 基於距離的聚類演算法存在的問題 222
12.1.2 基於密度的聚類演算法 225
12.2 DBSCAN演算法原理 225
12.2.1 DBSCAN演算法的基本概念 225
12.2.2 DBSCAN演算法原理 227
12.2.3 DBSCAN演算法流程 228
12.3 DBSCAN演算法實踐 231
12.3.1 DBSCAN演算法的主要過程 232
12.3.2 Mean Shift的最終聚類結果 234
參考文獻 236
13 Label Propagation 237
13.1 社區劃分 237
13.1.1 社區以及社區劃分 237
13.1.2 社區劃分的演算法 238
13.1.3 社區劃分的評價標準 239
13.2 Label Propagation演算法原理 239
13.2.1 Label Propagation演算法的基本原理 239
13.2.2 標籤傳播 240
13.2.3 迭代的終止條件 242
13.3 Label Propagation演算法過程 244
13.4 Label Propagation演算法實踐 244
13.4.1 導入數據 245
13.4.2 社區的劃分 246
13.4.3 最終的結果 247
參考文獻 248
第四部分 推薦演算法
14 協同過濾演算法 250
14.1 推薦系統的概述 250
14.1.1 推薦系統 250
14.1.2 推薦問題的描述 251
14.1.3 推薦的常用方法 251
14.2 基於協同過濾的推薦 252
14.2.1 協同過濾演算法概述 252
14.2.2 協同過濾演算法的分類 252
14.3 相似度的度量方法 253
14.3.1 歐氏距離 254
14.3.2 皮爾遜相關係數(Pearson Correlation) 254
14.3.3 餘弦相似度 254
14.4 基於協同過濾的推薦演算法 256
14.4.1 基於用戶的協同過濾演算法 256
14.4.2 基於項的協同過濾演算法 258
14.5 利用協同過濾演算法進行推薦 260
14.5.1 導入用戶-商品數據 260
14.5.2 利用基於用戶的協同過濾演算法進行推薦 261
14.5.3 利用基於項的協同過濾演算法進行推薦 262
參考文獻 264
15 基於矩陣分解的推薦演算法 265
15.1 矩陣分解 265
15.2 基於矩陣分解的推薦演算法 266
15.2.1 損失函數 266
15.2.2 損失函數的求解 266
15.2.3 加入正則項的損失函數即求解方法 267
15.2.4 預測 269
15.3 利用矩陣分解進行推薦 270
15.3.1 利用梯度下降對用戶商品矩陣分解和預測 270
15.3.2 最終的結果 272
15.4 非負矩陣分解 273
15.4.1 非負矩陣分解的形式化定義 274
15.4.2 損失函數 274
15.4.3 優化問題的求解 274
15.5 利用非負矩陣分解進行推薦 277
15.5.1 利用乘法規則進行分解和預測 277
15.5.2 最終的結果 278
參考文獻 279
16 基於圖的推薦演算法 280
16.1 二部圖與推薦演算法 280
16.1.1 二部圖 280
16.1.2 由用戶商品矩陣到二部圖 281
16.2 PageRank演算法 282
16.2.1 PageRank演算法的概念 282
16.2.2 PageRank的兩個假設 283
16.2.3 PageRank的計算方法 283
16.3 PersonalRank演算法 285
16.3.1 PersonalRank演算法原理 285
16.3.2 PersonalRank演算法的流程 286
16.4 利用PersonalRank演算法進行推薦 288
16.4.1 利用PersonalRank演算法進行推薦 288
16.4.2 最終的結果 291
參考文獻 291
第五部分 深度學習
17 AutoEncoder 294
17.1 多層神經網路 294
17.1.1 三層神經網路模型 294
17.1.2 由三層神經網路到多層神經網路 295
17.2 AutoEncoder模型 296
17.2.1 AutoEncoder模型結構 296
17.2.2 AutoEncoder的損失函數 297
17.3 降噪自編碼器Denoising AutoEncoder 298
17.3.1 Denoising AutoEncoder原理 298
17.3.2 Denoising AutoEncoder實現 299
17.4 利用Denoising AutoEncoders構建深度網路 302
17.4.1 無監督的逐層訓練 302
17.4.2 有監督的微調 303
17.5 利用TensorFlow實現Stacked Denoising AutoEncoders 306
17.5.1 訓練Stacked Denoising AutoEncoders模型 306
17.5.2 訓練的過程 307
參考文獻 308
18 卷積神經網路 309
18.1 傳統神經網路模型存在的問題 309
18.2 卷積神經網路 311
18.2.1 卷積神經網路中的核心概念 311
18.2.2 卷積神經網路模型 312
18.3 卷積神經網路的求解 313
18.3.1 卷積層(Convolution Layer) 313
18.3.2 下採樣層(Sub-Sampling Layer) 316
18.3.3 全連接層(Fully-Connected Layer) 316
18.4 利用TensorFlow實現CNN 316
18.4.1 CNN的實現 316
18.4.2 訓練CNN模型 320
18.4.3 訓練的過程 321
參考文獻 321
第六部分 項目實踐
19 微博精準推薦 324
19.1 精準推薦 324
19.1.1 精準推薦的項目背景 324
19.1.2 精準推薦的技術架構 325
19.1.3 離線數據挖掘 326
19.2 基於用戶行為的挖掘 327
19.2.1 基於互動內容的興趣挖掘 327
19.2.2 基於與博主互動的興趣挖掘 328
19.3 基於相似用戶的挖掘 329
19.3.1 基於「@」人的相似用戶挖掘 329
19.3.2 基於社區的相似用戶挖掘 329
19.3.3 基於協同過濾的相似用戶挖掘 331
19.4 點擊率預估 332
19.4.1 點擊率預估的概念 332
19.4.2 點擊率預估的方法 332
19.5 各種數據技術的效果 334
參考文獻 335
附錄A 336
附錄B 341
精彩節摘
推薦序
志勇是我在新浪微博的同事,剛來的時候坐我的旁邊。記得當時志勇喜歡把看過的論文的重點部分剪下來粘到自己的筆記本上,並用五顏六色的筆標註,後來還知道志勇平時會寫博客來記錄自己在演算法學習和實踐中的心得。由此可見,志勇是一個非常認真且善於歸納總結的人。2016年志勇告訴我他在寫這樣一本書的時候,我深以為然,感覺正確的人做了一件正確的事。
志勇的書快完成的時候邀請我寫序,這對我絕對是個挑戰。幸運的是,書中的內容是我所熟悉的,彷彿是發生在自己身邊的事。寫作風格也和志勇平時交流時一致。所以,我可以從故事參與者的角度去介紹一下這本書。
說到機器學習演算法,這兩年可謂蓬勃發展。AlphaGo戰勝世界圍棋冠軍李世石已經成了大家茶餘飯後的談資,無人駕駛汽車是資本競相追逐的萬億級市場,這些都源於數據收集能力、計算能力的提升,以及智能設備的普及。機器學習也已經在我們身邊一些領域取得了成功,例如,現在已經獲得上億用戶使用的今日頭條。今日頭條通過抓取眾多媒體的資訊,利用機器學習演算法推薦給用戶,從而做到了資訊量大、更新快、更加個性化。
作為一個互聯網從業者,更是感覺到機器學習演算法已經融入到越來越多的產品和功能中。我曾經在一次交流中得知,某個應用為減少用戶輸入,用了一個團隊的力量做輸入選項的推薦。這在以前是不曾出現過的,以前的網站更多的是增加功能,讓用戶選擇。現在更多的是推薦給用戶,幫助用戶選擇。這裡面既有移動應用屏幕小、操作複雜的原因,也有互聯網公司越來越重視用戶體驗的原因。所以,在此要恭喜這本書的讀者,你們選擇了一個前途光明的行業。
機器學習演算法比較典型的應用是推薦、廣告和搜索。我們利用協同過濾技術來推薦商品、利用邏輯回歸技術來做點擊率的預測、利用分類技術來識別「垃圾」網頁等。學好、用好每一種演算法都很困難,需要掌握背後的理論基礎,以及進行大量的實踐,否則就會浮於表面,模仿他人,不能根據自己的業務做出合理的選擇。
而市場上的書通常要麼只是一些概要性質的介紹,要麼是偏向實戰,理論基礎介紹得比較少。本書是少有的兩者兼具的書,每一種演算法都先介紹數學基礎,再用Python代碼做簡單版本的實現,並且演算法之間循序漸進,層層深入,讀來如沐春風。
本書介紹了LR、FM、SVM、協同過濾、矩陣分解等推薦和廣告領域常用演算法,有很強的實用性。深度學習更是近期主流互聯網公司研究的熱門領域。無論對機器學習的初學者還是已經具備一些項目經驗的人來說,這都是很好的讀本。希望本書對更多的人有益,也希望中國的「人工智慧+」蓬勃發展。
新浪微博演算法經理 陶輝
媒體評論
在人工智慧時代,機器學習已經成了互聯網從業人員和在校學生的一門必修課。市場上不乏機器學習相關的書籍,但大都晦澀難懂而缺乏應用場景。本書是作者在新浪微博廣告業務上一手的實踐經驗和心得體會,具有極佳的實用性,非常適合於對機器學習感興趣但沒有經驗的開發人員,和渴望了解「理論知識如何在業務中應用」的在校學生,相信你們一定可以從中找到想要的答案。
——新浪微博高級技術經理 姜貴彬
本書沒有使用高深複雜的數學邏輯來解釋機器學習,而是從直觀簡潔的介紹入手,通俗易懂,再輔助於代碼實現幫助讀者理解演算法細節,是機器學習入門一本不可多得的好書,推薦。
——百度資深技術專家 毛欽
本書從具體的代碼開始去理解抽象的演算法,給讀者一種腳踏實地的感覺,推薦給所有工程出身有志於演算法的工程師。
——阿里媽媽演算法工程技術專家 易慧民
本書對常用的機器學習演算法進行了深入和全面的介紹,書中大量的代碼清單令人印象尤為深刻,確實是一本實用易懂、快速入門的好書。
——美團·大眾點評資深技術專家 潘文彬
前言
起源
在讀研究生期間,我就對機器學習演算法萌生了很濃的興趣,並對機器學習中的常用演算法進行了學習,利用MATLAB對每一個演算法進行了實踐。在此過程中,每當遇到不懂的概念或者演算法時,就會在網上查找相關的資料。也看到很多人在博客中分享演算法的學習心得及演算法的具體過程,其中有不少內容讓我受益匪淺,但是有的內容僅僅是演算法的描述,缺少實踐的具體過程。
注意到這一點之後,我決定開始在博客中分享自己學習每一個機器學習演算法的點點滴滴,為了讓更多的初學者能夠理解演算法的具體過程並從中受益,我計劃從三個方面出發,第一是演算法過程的簡單描述,第二是演算法理論的詳細推導,第三是演算法的具體實踐。2014年1月10日,我在CSDN上寫下了第一篇博客。當時涉及的方向主要是優化演算法和簡單易學的機器學習演算法。
隨著學習的深入,博客的內容越來越多,同時,在寫作過程中,博客的質量也在慢慢提高,這期間也是機器學習快速發展的階段,在行業內出現了很多優秀的演算法庫,如Java版本的weka、Python版本的sklearn,以及其他的一些開源程序,通過對這些演算法庫的學習,我豐富了很多演算法的知識,同時,我將學習到的心得記錄在簡單易學的機器學習演算法中。工作之後,越發覺得這些基礎知識對於演算法的理解很有幫助,積累的這些演算法學習材料成了我寶貴的財富。
2016年,電子工業出版社博文視點的符隆美編輯聯繫到我,詢問我是否有意向將這些博文匯總寫一本書。能夠寫一本書是很多人的夢想,我也不例外。於是在2016年9月,我開始了對本書的構思,從選擇演算法開始,選擇出使用較多的一些機器學習演算法。在選擇好演算法後,從演算法原理和演算法實現兩個方面對演算法進行描述,希望本書能夠在內容上既能照顧到初學者,又能使具有一定機器學習基礎的讀者從中受益。
在寫作的過程中,我重新查閱了資料,力求保證知識的準確性,同時,在實踐的環節中,我使用了目前比較流行的Python語言實現每一個演算法,使得讀者能夠更容易理解演算法的過程,在介紹深度學習的部分時,使用到了目前最熱門的TensorFlow框架。為了幫助讀者理解機器學習演算法在實際工作中的具體應用,本書專門有一章介紹項目實踐的部分,綜合前面各種機器學習演算法,介紹每一類演算法在實際工作中的具體應用。
內容組織
本書開篇介紹機器學習的基本概念,包括監督學習、無監督學習和深度學習的基本概念。
第一部分介紹分類演算法。分類演算法是機器學習中最常用的演算法。在分類演算法中著重介紹Logistic回歸、Softmax Regression、Factorization Machine、支持向量機、隨機森林和BP神經網路等演算法。
第二部分介紹回歸演算法。與分類演算法不同的是,在回歸演算法中其目標值是連續的值,而在分類演算法中,其目標值是離散的值。在回歸演算法中著重介紹線性回歸、嶺回歸和CART樹回歸。
第三部分介紹聚類演算法。聚類是將具有某種相同屬性的數據聚成一個類別。在聚類演算法中著重介紹K-Means演算法、Mean Shift演算法、DBSCAN演算法和Label Propagation演算法。
第四部分介紹推薦演算法。推薦演算法是一類基於具體應用場景的演算法的總稱。在推薦演算法中著重介紹基於協同過濾的推薦、基於矩陣分解的推薦和基於圖的推薦。
第五部分介紹深度學習。深度學習是近年來研究最為火熱的方向。深度學習的網路模型和演算法有很多種,在本書中,主要介紹最基本的兩種演算法:AutoEncoder和卷積神經網路。
第六部分介紹以上這些演算法在具體項目中的實踐。通過具體的例子,可以清晰地看到每一類演算法的應用場景。
附錄介紹在實踐中使用到的Python語言、numpy庫及TensorFlow框架的具體使用方法。
小結
本書試圖從演算法原理和實踐兩個方面來介紹機器學習中的常用演算法,對每一類機器學習演算法,精心挑選了具有代表性的演算法,從理論出發,並配以詳細的代碼,本書的所有示例代碼使用Python語言作為開發語言,讀者可以從https://github.com/ zhaozhiyong19890102/Python-Machine-Learning-Algorithm中下載本書的全部示例代碼。
由於時間倉促,書中難免存在錯誤,歡迎廣大讀者和專家批評、指正,同時,歡迎大家提供意見和反饋。本書作者的電子郵箱:zhaozhiyong1989@126.com。
致謝
首先,我要感謝陶輝和孫永生這兩位良師益友,在本書的寫作過程中,為我提供了很多意見和建議,包括全書的組織架構。感謝陶輝抽出寶貴的時間幫我寫序,感謝孫永生幫我檢查程序。
其次,我要感謝符隆美編輯和董雪編輯在寫作和審稿的過程中對我的鼓勵和悉心指導。
再次,我要感謝姜貴彬、易慧民、潘文彬,感謝他們能夠抽出寶貴的時間幫本書寫推薦語,感謝他們在讀完本書後給出的寶貴意見和建議。
然後,我要感謝July在本書的寫作過程中對本書提出的寶貴意見,感謝張俊林、王斌在讀完本書初稿後對本書的指點。
最後,感謝我的親人和朋友,是你們的鼓勵才使得本書能夠順利完成。
趙志勇
2017年6月6日於北京
※劉利:基於Spark的機器學習平台在點融風控應用介紹
※機器學習「算出」晶體性質,這次輪到材料學家解放雙手
※機器學習(5)之決策樹ID3及Python實現
※獨家:Google讓機器學習賦能Play商店,使應用有好排序
※機器學習的發展還得靠「開源」
TAG:機器學習 |
※Machine Learning:十大機器學習演算法
※Python手寫機器學習最簡單的KNN演算法
※用Python 實現的基礎機器學習演算法
※ClickHouse如何結合自家的GNDT演算法庫CatBoost來做機器學習
※AI機器學習-決策樹-python實現CART演算法
※Python LZW 演算法
※機器學習之分類演算法:K最近鄰python實現
※python:一句話說機器學習演算法和調參-集成學習篇
※Facebook開源「Detectron」,用於AR研究的計算機視覺演算法!
※用Python 實現的機器人演算法示例集合——PythonRobotics
※python:一句話說機器學習演算法和調參-異常檢測
※Deep Forest 演算法解讀
※演算法:Sums In A Triangle
※Facebook 正使用數以億計的 Instagram 圖片訓練其 AI 演算法
※Adaboost演算法及python實戰
※WeforWe 演算法清單
※人工智慧–Autoencoder演算法
※用Python實現流行機器學習演算法
※OpenAI提出Reptile:可擴展的元學習演算法
※這本Python演算法書有點火