當前位置:
首頁 > 最新 > python機器學習:線性回歸

python機器學習:線性回歸

向AI轉型的程序員都關注了這個號

線性回歸是機器學習中最基本的一個演算法,但是那些所謂的效果很好的演算法也無非是從這些基礎演算法慢慢演變而來。高中時候的數學老師給我講過一個喬峰的故事,我今天再添油加醋的給你們說下。天龍八部中,喬峰在聚賢庄大戰江湖群雄這個算是經典了,當時各路武林豪傑紛紛使出自家的看門絕學,什麼易筋經啊,九陰真經啊,葵花點穴手啊等等,但統統都被喬峰一拳KO,直接秒殺,竟無一人是其敵手,那喬峰用的是什麼高深武學呢?其實他用的是拳法當作最為基礎的一套拳法,名為長拳,有點拳法方面知識的人都知道,長拳其實一套最最基礎的拳法,大家可以把它想成軍訓時候的匕首操。但就是這麼個匕首操把這麼多絕世武功都KO了。為啥?因為喬峰小時候在少林寺山腳住的時候,就開始苦練基本功,苦練長拳,並沒用刻意的去最求一些更高水平的武學,這才將一套基礎拳法發揮得如此淋漓盡致。

(這個故事我也只聽了個大概,上面我很大部分都自己瞎寫的,我就是要說一個道理。)

第一:基礎很重要

第二:一些簡單的東西,學好了不比很多複雜的高深的東西差。

說了這麼多,其實就是要引出今天的主題——-線性回歸。線性回歸我覺得可以當成是機器學習中的長拳。

本文代碼github地址


線性回歸包括一元線性回歸和多元線性回歸,一元的是只有一個x和一個y。多元的是指有多個x和一個y。

下面我只講下一元的,多元只是將變成了

一元線性回歸其實就是去找到一條直線,這條直線能以最小的誤差(Loss)來擬合數據。


如上圖所示,橫坐標表示x,縱坐標表示y。我們要找的就是圖中的這條直線。我們要去找到這條直線,大家可以想像,我們肯定希望找到的那條線,距離每個點都很近,最好所有的點上都在這條線上,但是一條直線去擬合所有的點都在這條直線上肯定不現實,所以我們希望這些點盡量離這條直線近一點。即去找每個點和直線的距離最小的那條線,為了簡單起見,將絕對值轉化為平方,那麼誤差可以表示為,這裡i表示第i個數據,N表示總的樣本個數。一般我們還會把Loss求和平均,來當作最終的損失,

即。


我們要怎麼去找到最能擬合數據的直線?即最小化誤差呢?

一般有兩個方法:


上面我們講了我們定義的損失,其中的x,y,i,N都是已知的,那麼我們就可以把這個方程看作是m和b的方程。作為一個m和b的二次方程。那麼求Loss最小值的問題就轉變成了求極值問題,這個高數學過的都應該知道點。


令每個變數的偏導數為零,求方程組的解唄,這個是很基礎的高數問題了。

我們可以得到下面的方程組

然後就是巴拉巴拉巴拉把m和b求出來,這樣就得到我們要的線性方程了。


沒有梯度下降就沒有現在的深度學習,這是一個神奇的演算法。

最小二乘法可以一步到位,直接算出m和b,但他是有前提的,具體我有點記不清了,好像是需要滿秩什麼的。梯度下降法和最小二乘不一樣,它通過一步一步的迭代,慢慢的去靠近到那條最優直線。

最小二乘法裡面我們提到了兩個偏導數,分別為

我們要去找Loss這個方程的最小值,最小值怎麼求?按數學的求法就是最小二乘法唄,但是大家可以直觀的想一下,很多地方都會用一個碗來形容,那我也找個碗來解釋吧。

大家把這個Loss函數想像成這個碗,而我們要求的最小值就是碗底。假設我們現在不能用最小二乘法求極小值,但是我們的計算機的計算能量很強,我們可以用計算量換結果,不管我們位於這個碗的什麼位置,只要我們想去碗底,就要往下走。

往下走???

這個下不就是往梯度方向走嗎,那我們沿著梯度一點一點滑下去唄,反正計算機不嫌累。梯度不就是上面那兩個公式唄。現在梯度有了,那每次滑多遠呢,一滑划過頭了不久白算半天了嗎,所以還得定義步長,用來表示每次滑多長。這樣我們就能每次向下走一點點,再定義一個迭代值用來表示滑多少次,這樣我們就能慢慢的一點點的靠近最小值了,不出意外還是能距離最優值很近的。


每次向下滑要慢慢滑,就是要個步長,我們定義為learning_rate,往往很小的一個值。

向下滑動的次數,就是迭代的次數,我定義為num_iter,相對learning_rate往往很大。

定義好這兩個,我們就可以一邊求梯度,一邊向下滑了。就是去更新m和b。

我這裡用了加號,很多人會誤以為梯度下降就要減,但是其實梯度本身是有方向的,所以這裡直接加就可以。

如下圖所示,我們做的初始化

然後就是優化器,優化器就是去做梯度下降

它裡面的具體步驟,如下

裡面的compute_gradient方法就是去計算梯度做參數更新



結果如下圖所示,

為改進線性回歸演算法的準確率,有很過改進的演算法,其中有局部加權線性回歸,如下是各展示

分別在K=1,K=0.1,K=0.01,K=0.003,當K=1為普通的線性回歸,當K=0.1變化不明顯,當K=0.01是擬合效果較好,當K=0.03時出現過擬合現象

如果數據的特徵比樣本點還多應該怎麼辦?統計學家引入嶺回歸、Lasso、前向逐步回歸來解決這個問題。


求解損失函數的最小值有兩種方法:梯度下降法以及正規方程,兩者的對比在附加筆記中有列出。

特徵縮放:即對特徵數據進行歸一化操作,進行特徵縮放的好處有兩點,一是能夠提升模型的收斂速度,因為如果特徵間的數據相差級別較大的話,以兩個特徵為例,以這兩個特徵為橫縱坐標繪製等高線圖,繪製出來是扁平狀的橢圓,這時候通過梯度下降法尋找梯度方向最終將走垂直於等高線的之字形路線,迭代速度變慢。但是如果對特徵進行歸一化操作之後,整個等高線圖將呈現圓形,梯度的方向是指向圓心的,迭代速度遠遠大於前者。二是能夠提升模型精度。

學習率α的選取:如果學習率α選取過小,會導致迭代次數變多,收斂速度變慢;學習率α選取過大,有可能會跳過最優解,最終導致根本無法收斂。


問題:以下面一張圖片展示過擬合問題

解決方法:(1):丟棄一些對我們最終預測結果影響不大的特徵,具體哪些特徵需要丟棄可以通過PCA演算法來實現;(2):使用正則化技術,保留所有特徵,但是減少特徵前面的參數θ的大小,具體就是修改線性回歸中的損失函數形式即可,嶺回歸以及Lasso回歸就是這麼做的。


嶺回歸與Lasso回歸的出現是為了解決線性回歸出現的過擬合以及在通過正規方程方法求解θ的過程中出現的x轉置乘以x不可逆這兩類問題的,這兩種回歸均通過在損失函數中引入正則化項來達到目的,具體三者的損失函數對比見下圖:

其中λ稱為正則化參數,如果λ選取過大,會把所有參數θ均最小化,造成欠擬合,如果λ選取過小,會導致對過擬合問題解決不當,因此λ的選取是一個技術活。

嶺回歸與Lasso回歸最大的區別在於嶺回歸引入的是L2範數懲罰項,Lasso回歸引入的是L1範數懲罰項,Lasso回歸能夠使得損失函數中的許多θ均變成0,這點要優於嶺回歸,因為嶺回歸是要所有的θ均存在的,這樣計算量Lasso回歸將遠遠小於嶺回歸。

可以看到,Lasso回歸最終會趨於一條直線,原因就在於好多θ值已經均為0,而嶺回歸卻有一定平滑度,因為所有的θ值均存在。


使用線性回歸預測房價

1. 預測一下房價

房價是一個很火的話題,現在我們拿到一組數據,是房子的大小(平方英尺)和房價(美元)之間的對應關係,見下表(csv數據文件):

從中可以大致看出,房價和房子大小之間是有相關關係的,且可以大致看出來是線性相關關係。為了簡單起見,這裡理想化地假設房價只和房子大小有關,那我們在這組數據的基礎上,怎樣預測任意大小的房子的房價呢?

python 代碼如下:

也可以按本文前面提示的方式獲取代碼。

【輸出結果】

深度學習、機器學習、數據分析、python

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

機器學習基礎知識1
第二個五分鐘,催動人工智慧的的內力——機器學習

TAG:機器學習 |