當前位置:
首頁 > 知識 > 最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程

最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程

最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程



AI研習社按:本文作者謝輝,原文載於作者個人博客,AI研習社已獲授權。


支持向量機 SVM(Support Vector Machine) 是一種有監督的學習模型,它的核心有兩個:一、核函數 (kernel trick);二、序列最小優化演算法 SMO(Sequential minimal optimization)是 John Platt 在 1996 年發布的用於訓練 SVM 的有效演算法。本文不打算細化 SVM 支持向量機的詳細推倒演算法,只涉及以上兩點的內容做一個說明,最後給出演算法實現和一個實驗對比圖。


核函數

核函數在處理複雜數據時效果顯著,它的做法是將某一個維度的線性不可分數據採取核函數進行特徵空間的隱式映射到高維空間,從而在高維空間將數據轉化為線性可分,最後回歸到原始維度空間實施分類的過程,常見的幾個核函數如下:


多項式核:


高斯核(徑向基函數):


線性核:


即是兩個矩陣空間的內積。


SMO 演算法流程


SMO 的主要兩個步驟就是:


1、選擇需要更新的一對α,採取啟發式的方式進行選擇,以使目標函數最大程度的接近其全局最優值;


2、將目標函數對α進行優化,以保持其它所有α不變。


以上是兩個基本步驟,實現具體推到公式如下:

所需要收到的約束條件為:


同時更新α,要求滿足如下條件,就可以保證為 0 的約束


消去α可得


其中

最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程



u 的表達式為:


y 為第 i 個特徵因素的真實標籤值


之後考慮約束條件 0


約束條件的線性表示

最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程



依據 y 同號或是異號,可得出上下兩個邊界為

最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程



對於α有


對於α首先可以通過 E 求得 j,之後計算方式可為:


而 b 的更新為

最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程


其中


每次更新完和都需要重新計算 b 以及對應的和


有了以上的公式,代碼實現就比較簡單了。


演算法實現


完整的 Platt-smo 演算法實現入口:


public SvmResult plattSmo(final SvmResult svmResult) {


double b = svmResult.getB();


double[] alphas = svmResult.getAlphas();


for(int i=0;i


double ei = this.calcEk(i, alphas, b);

if (((lablesArray[i] * ei < -tolerFactor)


&& (alphas[i] < penaltyFactor))


|| ((lablesArray[i] * ei > tolerFactor) && (alphas[i] > 0))) {


double[] jSelected = this.selectJ(i, ei, alphas, b); // 啟發式實現 j 的選擇


int j = (int) jSelected[0];


double ej = jSelected[1];


double alphaIold = alphas[i];


double alphaJold = alphas[j];


double L = 0;


double H = 0;

// 邊界計算


if (lablesArray[i] != lablesArray[j]) {


L = Math.max(0, alphas[j] - alphas[i]);


H = Math.min(penaltyFactor, penaltyFactor + alphas[j]


- alphas[i]);


} else {


L = Math.max(0, alphas[j] + alphas[i] - penaltyFactor);


H = Math.min(penaltyFactor, alphas[j] + alphas[i]);


}


if (L == H) {

logger.info("L==H");


} else {


double eta = (2.0 * this.kernelArray[i][j] - this.kernelArray[i][i] - this.kernelArray[j][j]);


if (eta>= 0) {


logger.info("eta>=0");


} else {


// 雙向調整 alphas[j] 遞減


alphas[j] -= lablesArray[j] * (ei - ej) / eta;


if (alphas[j] > H) {


alphas[j] = H;

}


if (L> alphas[j]) {


alphas[j] = L;


}


// 更新 ej


this.updateEk(j, alphas, b);


if (Math.abs(alphas[j] - alphaJold) < 0.00001) {


logger.info("j not moving enough");


} else {


// 雙向調整 alphas[i] 遞減

alphas[i] += lablesArray[j] * lablesArray[i]


* (alphaJold - alphas[j]);


// 更新 ei


this.updateEk(i, alphas, b);


// 計算 b


double b1 = b - ei- lablesArray[i]*(alphas[i]-alphaIold)*this.kernelArray[i][i] - lablesArray[j]*(alphas[j]-alphaJold)*this.kernelArray[i][j];


double b2 = b - ej- lablesArray[i]*(alphas[i]-alphaIold)*this.kernelArray[i][j] - lablesArray[j]*(alphas[j]-alphaJold)*this.kernelArray[j][j];


if ((0 < alphas[i]) && (penaltyFactor > alphas[i])){


b = b1;


}else if ((0 < alphas[j]) && (penaltyFactor > alphas[j])){


b = b2;


}else{


b = (b1 + b2)/2.0;


}


}


}


}


}


}


return new SvmResult(b, alphas);


}


在以上演算法裡面重點關注是 j 的選擇,


J 的選擇:


private double[] selectJ(int i,double ei,double[] alphas,double b){


int maxK = -1;


double maxDeltaE = 0;


double ej = 0;


int j = -1;


double[] eiArray= new double[2];


eiArray[0] = 1d;


eiArray[1] = ei;


this.eCache[i] = eiArray;


boolean hasValidEcacheList = false;


for(int k=0;k


if(this.eCache[k][0] > 0){


if(k == i){


continue;


}


hasValidEcacheList = true;


if(k == this.m){


k = m-1;


}


double ek = this.calcEk(k, alphas, b);


double deltaE = Math.abs(ei - ek);


if (deltaE> maxDeltaE){


maxK = k;


maxDeltaE = deltaE;


ej = ek;


}


}


}


j = maxK;


if(!hasValidEcacheList || j == -1){


j = this.selectJRandom(i);


ej = this.calcEk(j, alphas, b);


}


if(j == this.m){


j = m-1;


}


return new double[];


}


首選採取啟發式選擇 j,通過計算 deltaE 的最大值來逼近 j 的選擇,如果選擇不到就隨機選擇一個 j 值,在 j 選擇裡面有一個 Ek 的計算方式


private double calcEk(int k,double[] alphas,double b){


Matrix alphasMatrix = new Matrix(alphas);


Matrix lablesMatrix = new Matrix(lablesArray);


Matrix kMatrix = new Matrix(this.kernelArray[k]);


double fXk = alphasMatrix.multiply(lablesMatrix).dotMultiply(kMatrix.transpose()).dotValue() + b;


double ek = fXk - (float)this.lablesArray[k];


return ek;


}


下面再介紹一下核函數計算方式,本文主要採取徑向基函數 (RBF) 實現,如下:


public double[] kernelTrans(double[][] featuresArray,double[] featuresIArray){


int mCount = featuresArray.length;


double[] kernelTransI = new double[mCount];


Matrix featuresMatrix = new Matrix(featuresArray);


Matrix featuresIMatrix = new Matrix(featuresIArray);


if(trainFactorMap.get("KT").equals("lin")){


Matrix result = featuresMatrix.dotMultiply(featuresIMatrix.transpose());


kernelTransI = result.transpose().values()[0];


}else if(trainFactorMap.get("KT").equals("rbf")){


double rbfDelta = (double)trainFactorMap.get("rbfDelta");


for(int j=0;j


Matrix xj = new Matrix(featuresArray[j]);


Matrix delta = xj.reduce(featuresIMatrix);


double deltaValue = delta.dotMultiply(delta.transpose()).dotValue();


kernelTransI[j] = Math.exp((-1.0*deltaValue)/(2*Math.pow(rbfDelta, 2)));


}


}


return kernelTransI;


}


最後看下測試代碼實現:


double[][] datasvs = new double[m][d[0].length];


double[] labelsvs = new double[m];


double[] alphassvs = new double[m];


int n = 0;


for(int i=0;i


if(alphas[i] != 0){


datasvs[n] = d[i];


labelsvs[n] = l[i];


alphassvs[n] = alphas[i];


n++;


}


}


//model test


int errorCount = 0;


for(int i=0;i


double[] kernelTransI = learner.kernelTrans(datasvs, d[i]);


Matrix kernelTransIM = new Matrix(kernelTransI);


Matrix labelsvsM = new Matrix(labelsvs);


Matrix alphassvsM = new Matrix(alphassvs);


double predict = kernelTransIM.dotMultiply(labelsvsM.multiply(alphassvsM).transpose()).dotValue() + b;


if(AdaBoost.sigmoid(predict) != l[i]){


errorCount++;


}


}


測試代碼是首先找出所有的支持向量,並提取支持向量下的特徵向量和標籤向量,採取核函數進行隱式映射,最後計算預測值。


訓練結果


本文採取 100 個二維平面無法線性可分的數據集合,如下:

最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程



通過徑向基函數映射後採取支持向量預測計算得到的可分平面如下

最經典的SVM演算法在Spark上實現,這裡有一份詳盡的開發教程



本演算法 100 個數據訓練準確率可達 98%。


註:本文演算法均來自 Peter Harrington 的《Machine Learning in action》


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 唯物 的精彩文章:

玩深度學習選哪塊英偉達 GPU?有性價比排名還不夠!
如何用深度學習推薦電影?教你做自己的推薦系統!
10行代碼,用大腦重量預測體重!矽谷AI網紅親身示範
為什麼國內智能音箱難敵 Amazon Echo和Google Home?
遠場語音交互體驗的思考:Alexa 為什麼不用屏幕和多輪對話?

TAG:唯物 |

您可能感興趣

kNN 演算法的 SQL 實現
教你用OpenCV實現機器學習最簡單的k-NN演算法
IBM的Watson AI用於開發多面跟蹤演算法
從零開始用 Python 實現 k 近鄰演算法
從零開始用Python實現k近鄰演算法
iPhone XR 的焦外成像基本上通過演算法實現
這可能是史上最全的 Python 演算法集!
這可能是史上最全的Python演算法集!
AI換臉技術再創新高度,DeepMind發布的VQ-VAE二代演算法有多厲害?
商湯聯合提出基於FPGA的快速Winograd演算法:實現FPGA之上最優的CNN表現與能耗
如何使用Facebook開發的這種快速數據壓縮演算法Zstd
驚艷的SiamMask:開源快速同時進行目標跟蹤與分割演算法
面試SLAM演算法實習崗,我是怎麼做的?
Google發布Brackets核心演算法更新:這個三月註定是多事之秋!
從零開始教你 KMeans 演算法
現在有種新演算法可以檢測出虛假的Facebook和Twitter賬戶了
一致性Hash演算法
一致性Hash演算法入門及代碼實現
使用DFA攻擊硬體的AES演算法,並從PlayStation Vita中提取硬體密鑰
從RCNN到SSD,這應該是最全的一份目標檢測演算法盤點