機器學習筆記2——多變量線性迴歸

關鍵字:等值線,特徵縮放,歸一化,多項式線性迴歸

1.定義:

1.1 基函數爲特徵

顧名思義,一般情況下,多變量線性迴歸就是變量不止一個。因爲是線性的,所以可以表示爲

其中的ai是有實際意義的,表示當Xi變化一個單位後,對應的Y的變化

這裏x0爲1

將x和seta都寫成列向量的形式都是n+1維列向量,就是有n+1個特徵,數據集有m個數據

2.利用梯度下降法求解多變量線性迴歸



就是:這裏假設有m個數據集

1.2 基函數爲特徵的組合

此時仍然是線性模型,只是基函數發生變化

2、特徵縮放

2.1 目的

當數據集裏面的每個數據的n個維度數值上差太多是,就會使得梯度下降法很慢,等值線很扁

 像這樣:

比如吧seta1以千爲單位,但是seta2以0.1爲單位,兩個不統一

2.2步驟

先進行特徵縮放,然後發現等值線差不多是個圓,這是理想的情況

通常限制的範圍是[-1,1],當然,大一些或者小一些都可以,但是區間範圍也不能太小了或者太大

3.均值歸一化

相當於把正態分佈標準化

假設數據集的m個數據,n維特徵中的其中一個特徵xi,m個數據的這個特徵分別爲xi1,xi2,...,xin,他們的均值爲,標準差爲,歸一化就是


然後的值就會在[-1,1]之間了

4.多項式線性迴歸

此時均值歸一化就無比重要

一般寫法:


這裏的是一個實數,可以爲整數,也可以爲分數


這是觀看吳恩達網易雲機器學習系列做的筆記

圖片來源於視頻課件