第1.2章 神經網絡中隱藏層、偏置單元、激活函數的作用

神經網絡中隱藏層、偏置單元、激活函數的作用

摘要:這篇文章主要是對上一篇文章中所給例題中部分知識點的講解,較多的參考了網上其他朋友的資料,主要是供大家學習和自己以後查看資料方便,如有侵權,請告知!我會及時修改、刪除!

首先給出上一篇文章的例題,一道題道出神經網絡的本質https://www.jianshu.com/p/daf5b4f0238c,下面將介紹例題中涉及的隱藏層、偏置單元、激活函數。

隱藏層

例題中除了輸入層和輸出層,還有幾層隱藏層。從圖中可以看出,隱藏層不直接接受外界的信號,也不直接向外界發送信號。隱藏層的作用,簡單來說就是構造出一個複雜的模型,複雜的程度由隱藏層的層數和各隱藏層神經元的個數決定。

因此,當隱藏層層數等於0時,相當於一個最簡單的模型——線性或非線性迴歸模型。

有興趣的朋友們可以參考以下文章詳細瞭解
1."使用隱藏層和神經元的目的"https://www.jianshu.com/p/91138ced2939
2."對隱藏層的簡單理解 "https://www.cnblogs.com/freyr/p/4506522.html

偏置單元

偏置單元(bias unit),也稱爲偏置項(bias term)或者截距項(intercept term),它其實就是函數的截距,與線性方程 y=wx+b 中的 b 的意義是一致的。
在 y=wx+b 中,b表示函數在y軸上的截距,控制着函數偏離原點的距離,其實在神經網絡中的偏置單元也是類似的作用。

下面舉個簡單的例子:
神經網絡最重要的用途是分類,如垃圾郵件識別、疾病判斷、貓狗分類這種能自動對輸入的東西進行分類的機器,就叫做分類器。現在我們有一個簡單的任務,需要將下面三角形和圓形進行分類:
例題1
如果沒有偏置單元,我們可以輕易得到一條過原點的直線y=wx線性分開這些數據點。

但是,假如我現在的樣本點是如下這種:

例題2
則方程應爲y=wx+b,由此,我們發現,增加偏置單元可以給網絡分類增加平移的能力

激活函數

激活函數是用來加入非線性因素的,提高神經網絡對模型的表達能力,解決線性模型所不能解決的問題。

詳細介紹請看下面這篇文章:
"神經網絡激活函數的作用是什麼?"http://www.noobyard.com/article/p-skfaklji-nc.html

權重

爲了理解方便,我們採用最簡單的方式:每個連接的權值由隨機數函數產生,權重w就是我們需要訓練的模型參數,但這樣得到的效果並不好,收斂速度慢,因此採用某些函數對權值進行初始化,後面將詳細介紹設置權重的函數。

如有不當,請各位批評指正<抱拳><抱拳><抱拳>