Bloomberg推出在線免費課程:《機器學習基礎》
選自Bloomberg
作者:David S. Rosenberg
機器之心編譯
參與:路、李澤南
彭博(Bloomberg)近日推出的《機器學習基礎》免費課程致力於讓人們深入了解機器學習專家使用的概念、技術和數學框架。該課程是視頻講解模式,目前已包含 30 節課,另有 7 次作業。
課程鏈接:https://bloomberg.github.io/foml/#home
課程簡介
彭博推出的《機器學習基礎》課程是一門訓練課程,最初只向彭博內部軟體工程師開放,作為「機器學習教育」(Machine Learning EDU)計劃的一部分。本課程覆蓋機器學習和統計建模的大量主題。主要目標是幫助參與者深入理解機器學習專家使用的概念、技術和數學框架。這門課程旨在使更多具備強大數學背景的個人能夠獲取更多珍貴的機器學習技術,包括軟體開發者、實驗科學家、工程師和金融專業人士。
這門課程一共包含 30 節課,觀看地址:https://www.youtube.com/playlist?list=PLnZuxOufsXnvftwTB1HL6mel1V32w0ThI
這門課程包括一套完整的作業,每份作業都包含 Python 理論元素和實現挑戰(Python 正在快速發展,是數據科學和機器學習學界和業界都很流行的編程語言)。本課程還可作為其他更專業課程的基礎課程,或者其他獨立研究的基礎。
第一講《黑箱機器學習》快速介紹了實際機器學習,只需要參與者熟悉基礎的編程概念。
必備條件
查看該課程的數學水平是否適合自己的最快方式:https://davidrosenberg.github.io/mlcourse/Notes/prereq-questions/math-questions.pdf,參與者可從這裡預覽課程第一部分中的一些數學概念。
堅實的數學背景,相當於以下課程的大學本科初級水平:線性代數、多變數微積分(multivariate differential calculus)、概率論和統計學。例如,紐約大學的《DS-GA 1002: Statistical and Mathematical Methods》課程內容就足夠了。
Python 編程知識,大部分作業需要參與者掌握一定的 Python 編程知識。
推薦:至少一門進階、基於證明(proof-based)的數學課程。
推薦:具備計算機科學背景,如「數據結構和演算法」課程。
《機器學習基礎》課程目錄:
黑箱機器學習(BLACK BOX MACHINE LEARNING)
案例研究:流失預測(CASE STUDY: CHURN PREDICTION)
統計學習理論入門(INTRODUCTION TO STATISTICAL LEARNING THEORY)
隨機梯度下降(STOCHASTIC GRADIENT DESCENT)
過度風險分解(EXCESS RISK DECOMPOSITION)
L1 和 L2 正則化(L1 AND L2 REGULARIZATION)
LASSO、Ridge 和 Elastic net(LASSO, RIDGE, AND ELASTIC NET)
用於回歸和分類的損失函數(LOSS FUNCTIONS FOR REGRESSION AND CLASSIFICATION)
拉格朗日對偶和凸優化(LAGRANGIAN DUALITY AND CONVEX OPTIMIZATION)
支持向量機(SUPPORT VECTOR MACHINES)
次梯度下降(SUBGRADIENT DESCENT)
特徵提取(FEATURE EXTRACTION)
核方法(KERNEL METHODS)
性能評估(PERFORMANCE EVALUATION)
「CITYSENSE」:用於異常行為檢測的概率模型("CITYSENSE": PROBABILISTIC MODELING FOR UNUSUAL BEHAVIOR DETECTION)
最大似然估計(MAXIMUM LIKELIHOOD ESTIMATION)
條件概率模型(CONDITIONAL PROBABILITY MODELS)
貝葉斯方法(BAYESIAN METHODS)
貝葉斯條件概率模型(BAYESIAN CONDITIONAL PROBABILITY MODELS)
分類和回歸樹(CLASSIFICATION AND REGRESSION TREES)
基礎統計學和 bootstrap 入門(BASIC STATISTICS AND A BIT OF BOOTSTRAP)
bagging 和隨機森林(BAGGING AND RANDOM FORESTS)
梯度提升(GRADIENT BOOSTING)
多類別和結構化預測簡介(MULTICLASS AND INTRODUCTION TO STRUCTURED PREDICTION)
K-means 聚類(K-MEANS CLUSTERING)
高斯混合模型(GAUSSIAN MIXTURE MODELS)
用於潛在變數模型的期望最大化演算法(EM ALGORITHM FOR LATENT VARIABLE MODELS)
神經網路(NEURAL NETWORKS)
反向傳播和鏈式法則(BACKPROPAGATION AND THE CHAIN RULE)
下一步(NEXT STEPS)
第一課:黑箱機器學習
程序員具備大量記錄文檔良好的機器學習庫就可以進行機器學習,而無需理解真正的運作原理。我們鼓勵此類「黑箱」機器學習……只要你遵循本節課介紹的步驟。為了恰當地使用機器學習庫,你需要了解基本的機器學習辭彙、概念和工作流。我們將介紹標準的機器學習問題類型(分類和回歸),討論預測函數、特徵提取、學習演算法、性能評估、交叉驗證、樣本偏差(sample bias)、非平穩性(nonstationarity)、過擬合和調參。
Note:本課程的主講人 David Rosenberg 是彭博公司數據科學組 Office of the CTO 的科學家,同時也是紐約大學數據科學中心(Center for Data Science)的一名副教授,多次獲得該中心「年度教授」(Professor of the Year)獎項。他在 UC Berkeley 獲得博士學位,研究方向是統計學習理論和自然語言處理。在此之前,他在哈佛大學獲得應用數學碩士學位,研究重心是計算機科學,在耶魯大學獲得數學學士學位。
本文為機器之心編譯,轉載請聯繫本公眾號獲得授權。
------------------------------------------------
※吳恩達授課,斯坦福CS230深度學習課程資源開放
※UIUC陳德銘教授:「萬能晶元」FPGA與深度學習
TAG:機器之心 |