關鍵字:等值線,特徵縮放,歸一化,多項式線性迴歸
1.定義:
1.1 基函數爲特徵
顧名思義,一般情況下,多變量線性迴歸就是變量不止一個。因爲是線性的,所以可以表示爲
其中的ai是有實際意義的,表示當Xi變化一個單位後,對應的Y的變化
這裏x0爲1
將x和seta都寫成列向量的形式,都是n+1維列向量,就是有n+1個特徵,數據集有m個數據
2.利用梯度下降法求解多變量線性迴歸
就是:這裏假設有m個數據集
1.2 基函數爲特徵的組合
此時仍然是線性模型,只是基函數發生變化
2、特徵縮放
2.1 目的
當數據集裏面的每個數據的n個維度數值上差太多是,就會使得梯度下降法很慢,等值線很扁
像這樣:
比如吧seta1以千爲單位,但是seta2以0.1爲單位,兩個不統一
2.2步驟
先進行特徵縮放,然後發現等值線差不多是個圓,這是理想的情況
通常限制的範圍是[-1,1],當然,大一些或者小一些都可以,但是區間範圍也不能太小了或者太大
3.均值歸一化
相當於把正態分佈標準化
假設數據集的m個數據,n維特徵中的其中一個特徵xi,m個數據的這個特徵分別爲xi1,xi2,...,xin,他們的均值爲,標準差爲,歸一化就是
然後的值就會在[-1,1]之間了
4.多項式線性迴歸
此時均值歸一化就無比重要
一般寫法:
這裏的是一個實數,可以爲整數,也可以爲分數
這是觀看吳恩達網易雲機器學習系列做的筆記
圖片來源於視頻課件