前序
[數理知識]貝葉斯公式和最大似然估計筆記
1 決策理論與方法
1.1 基於先驗概率的決策過程
記
x 爲觀察到的樣本特徵,分類空間爲
A={a1,a2...,an},其中
ai爲第
i個類,
P(ai)爲類
ai的發生概率。
-
x=[x1,x2,...,xd]T爲由
d維空間組成的特徵向量。
- 當
P(aj)>P(aothers)時,記決策規則
x∈aj。
- 當做出決策
x∈aj之後,單類分類錯誤率
P(errorj)=1−P(aj),即
x∈/aj的概率。
可以看到,一般決策過程僅依靠先驗概率
P(aj),使得對
x 的觀察(特徵參考)並沒有對決策過程產生影響,總體錯誤率仍有降低的空間。
1.2 基於貝葉斯公式的決策過程
貝葉斯決策:在觀察到
x 的樣本特徵後,基於貝葉斯公式,可以有效降低分類錯誤率:
P(ai∣x)=p(x)p(x∣ai)P(ai)=∑j=1np(x∣aj)P(aj)p(x∣ai)P(ai)其中,
p(x∣ai)是類條件密度,
P(ai)是先驗概率,
p(x)是總體密度,
P(ai∣x)是後驗概率;
- 因此在本質上,貝葉斯決策是指:[後驗概率]等於[先驗概率]與[類條件密度]的乘積,最後採用[總體密度]做歸一化。同時,[總體密度]由全概率公式又可以轉化爲所有類的[先驗概率]與其[類概率密度]乘積之和。
貝葉斯決策也被稱作統計決策理論。
- 記
λ=p(x)p(x∣ai) ,所以基於貝葉斯決策的決策的錯誤率:
P(errori)=1−P(ai∣x)=1−λ×P(ai)
貝葉斯分類決策增益
λ 是對先驗概率
P(ai)的增益,是基於對
x的觀測而得到的,其值等於類條件概率在總體密度上的歸一值,增益程度取決於類條件概率
p(x∣ai)——當
ai越容易導致
x的發生時(類條件概率越大),則增益程度越高(
λ越大),第
i類的分類錯誤率越低。
1.3 決策錯誤率
(總體)決策錯誤率定義爲所有服從同樣分佈的獨立樣本上的單類錯誤率的期望,即:
P(e)=∫P(e∣x)×p(x)dx
- 其中,
P(e∣x)即爲單類分類錯誤率
P(errori)在連續函數上的表示法。
- 顯然,貝葉斯決策由於增益
λ的存在,能有效降低決策錯誤率。
2 貝葉斯決策的優化
2.1 最小錯誤率貝葉斯決策
對於每次決策,取後驗概率最大的決策,即可使得決策錯誤率最小。
P(ai∣x)=j=1..nmaxP(aj∣x)
2.1.1 二分類問題的決策錯誤率
針對二分類問題,由於總體概率密度
p(x)相同,有以下變體:
l(x)=p(x∣a2)p(x∣a1)≷λ=P(a1)P(a2),x∈{a1a2
當
l(x)大於閾值
λ時,分爲第一類,否則爲第二類。(注意:此處的
λ與上文的"增益"概念不同)
m≷n,x∈{a1a2Tips: 上式可用僞代碼表示爲:
x=m>n?a1:a2
2.1.2 二分類問題的決策面
當
l(x)=λ,即後驗概率
P(a1∣x)=P(a2∣x)時,使得樣本
x 落在分界線左側(
l(x)>λ)時分爲第一類,否則爲第二類;該分界線被稱爲決策面或分類面。
- 記
−(∞,t)爲
ℜ1,
(t,∞)爲
ℜ2;
t爲分類面對
x的劃分值。
則二分類問題中的平均錯誤率爲:
P(e)=∫−∞tP(a2∣x)p(x)dx+∫t∞P(a1∣x)p(x)dx=∫−∞tp(x∣a2)P(a2)dx+∫t∞p(x∣a1)P(a1)dx=∫ℜ1p(x∣a2)P(a2)dx+∫ℜ2p(x∣a1)P(a1)dx=P(a2)∫ℜ1p(x∣a2)dx+P(a1)∫ℜ2p(x∣a1)dx=P(a2)P2(e)+P(a1)P1(e)
- 注意到,
P1(e)=∫ℜ2p(x∣a1)dx,是把第一類的
x決策爲第二類的錯誤率;反之亦然。
- 兩類錯誤率對相應類別的先驗概率求取加權和即爲二分類問題中的分類錯誤率。
2.2 最小風險貝葉斯決策
記
λ(βi,aj)是指對實際爲
aj的樣本
x採取決策
βi所帶來的風險(損失)。
- 注意到:
λ(βi,aj),當
i=j時,分類正確;
i≠j時,爲把屬於
i類分爲第
j類的損失。
2.2.1 決策風險及其計算
若有
n 個類和
k 個決策,則損失是:
R(βi∣x)=j=1∑nλ(βi,aj)P(aj∣x),i=1,...k對於決策規則
β(x)=∑βΔ,其損失的總體期望爲:
R(β)=∫R(βΔ∣x)p(x)dx
對於一個實際問題,求取最小風險貝葉斯決策可以按照以下步驟求取:
- 由貝葉斯公式計算後驗概率:
P(ai∣x)=∑j=1np(x∣aj)P(aj)p(x∣ai)P(ai),i=1,2,...,n
- 計算條件風險:
R(βi∣x)=j=1∑nλ(βi,aj)P(aj∣x),i=1,...k
- 優化目標:
β∗=argi=1,...,kminR(βi∣x)
2.2.2 最小風險貝葉斯決策向最小錯誤率決策的轉化
考慮二分類問題,簡記
λij=λ(βi,aj):
λ11P(a1∣x)+λ12P(a2∣x)≶λ21P(a1∣x)+λ22P(a2∣x),x∈{a1a2⋅⋅⋅⋅⋅⋅①
- 注意到:
λij當
i=j時,分類正確;
i≠j時,爲把屬於
i類分爲第
j類的損失。
注意:此處的
≶ 與上文中的
≷ 正好相反。
不失一般性,可以假設
λ11<λ21,
λ22<λ12。
則①式可化爲:
(λ11−λ21)P(a1∣x)P(a1∣x)P(a2∣x)p(x∣a1)P(a1)p(x∣a2)P(a2)=P(a1∣x)p(x)P(a2∣x)p(x)l(x)−1=p(x∣a1)p(x∣a2)l(x)=p(x∣a2)p(x∣a1)≶(λ22−λ12)P(a2∣x),x∈{a1a2⋅⋅⋅⋅⋅⋅②≶(λ12−λ22)(λ21−λ11),x∈{a1a2≶(λ12−λ22)(λ21−λ11),x∈{a1a2≶λ−1=P(a2)P(a1)×(λ12−λ22)(λ21−λ11),x∈{a1a2≷λ=P(a1)P(a2)×(λ21−λ11)(λ12−λ22),x∈{a1a2
- 當
λ11=λ22=0,
λ12=λ21=c (
c爲正常數)時,就是最小錯誤率貝葉斯分類決策。即分類正確時無風險,分類錯誤時風險一致。
注意:此處的
≶ 與上文中的
≷ 的方向,後者意爲
x=m>n?a1:a2 。
3 兩類錯誤率
在二分類問題中,有以下決策分佈表:
決策分佈表 |
決策 |
已知 |
陽性 |
陰性 |
正類 |
(真陽)TP |
(假陰)FN |
負類 |
(假陽)FP |
(真陰)TN |
分界線 |
P(陽性)和N(陰性)之間的線即爲分界線;P高則N少,反之亦然。 |
3.1 正確分類的指標
- 靈敏度(命中率,sensitivity) = 真陽除以所有正類:
Sn=TP+FNTP⋅⋅⋅TPR
- 特異度(敏感率,specificity) = 真陰除以所有負類:
Sp=TN+FPTN⋅⋅⋅TNR
很容易注意到:
-
Sn表示真正的陽性樣本(正類)中有多少能被正確檢測出來;靈敏度高指的是能夠正確分辨多少目標個體。
-
Sn表示真正的陰性樣本(負類)中有多少能被正確檢測出來;特異度高指的是不易把非目標個體選中。
- 顯然,鑑於二分類器的特性,二者不可能同時取得高值(若分類器認爲的P的個體數多,則N的個體數必然變少)。
3.2 錯誤分類的指標
- 第一類分類誤差(假陽性,假報率,False Alarm,
Type−Ⅰ
Error) = 假陽除以所有負類:
α=1−Sp=TN+FPFP⋅⋅⋅FPR
- 第二類分類誤差(假陰性,漏檢率,Missed Detection,
Type−Ⅱ
Error) = 假陰除以所有正類:
β=1−Sn=TP+FNFN⋅⋅⋅FNR
很容易注意到:
-
α表示非目標樣本中有多少會被錯誤地挑選出來。
-
β表示目標樣本中有多少會被漏檢。
- 第一類錯誤概率與第二類正確概率之和顯然爲1(不是第一類就是第二類),這也是
α=1−Sp的由來;反之亦然。
- 顯然,鑑於二分類器的特性,二者不可能同時取得低值(若分類器認爲的P的個體數多,則N的個體數必然變少)。
3.3 ROC曲線
對於二分類任務,無法同時滿足正確分類的兩個指標同時達到較好的值,因此,引入ROC曲線作爲衡量指標:
ROC曲線:
- 以第一類正確率(真陽性,靈敏度, sensitivity,TPR)爲
y軸;
- 以第一類分類誤差(假陽性,假報率,False Alarm,
Type−Ⅰ
Error,FPR)爲
x軸;
在理解上,可以這麼理解——在
x儘量小的情況下,取得較高的
y值,是描繪ROC曲線的目標;即第一類分類時誤差小、正確率高。
注意到:第一類分類誤差實際上就是
1−Sp,有的文獻則以(1-特異度)爲
x軸作爲介紹,但並不直觀。
- 這是標準ROC曲線,若將
x軸取爲
Sp即第二類分類正確率(真陰性,特異度,TNR),則意味着需要在曲線中找到一點,滿足一類和二類分類性能同時較高,並反向得出此時的閾值。
關於ROC曲線,可以參考>數據挖掘-分類器的ROC曲線及相關指標(ROC、AUC、ACC)詳解<