One vs One Mitigation of Intersectional Bias

題目交叉偏差的一對一緩解:擴展公平感知二元分類的一般方法

用以發現交叉偏差並消減交叉偏差。

研究背景:

如圖1所示:

男性和女性,白人和非白人在大體上的接受率基本相同,但是可以明顯看到非白人女性佔有率0%,存在明顯的歧視性,即一個受保護的羣體在整體上似乎受到公平對待,受保護羣體的一部分也可能受到不公平對待。

研究問題:交叉偏差就是存在兩個或多個敏感屬性,這些敏感屬性之間存在一定的關聯,這種關聯影響了系統的結果,導致結果存在不均衡問題,即出現歧視性。

創新點:1.提出了One-vs.-One Mitigation方法

               2.提供了一個子組視差上限,可以控制精度和公平性之間的權衡。

研究方法:爲了解決上述交叉偏差問題,論文提出了One-vs.-One Mitigation方法。

一、公平指標

          

任何子組中的一個實例被歸類到有利類的概率等於整個數據集中的概率      任意子組中的一個實例被正確地歸類到有利類的概率(真正率,TPR)和錯誤分類爲有利類(假Posi- tive Rate, FPR)的概率等於整個數據集中的概率

任意子組中的一個實例被正確地歸類到有利類(TPR)的概率等於整個數據集中的實例的概率

二、方法

該方法利用從分類模型或緩解方法中獲得的多數投票結果和預測概率來計算每個實例的得分。對每對的緩解結果進行彙總,並根據最喜歡的類別的投票率和預測概率的平均值計算T。最終緩解結果Z由投票率是否超過閾值s決定

                                                      

爲什麼要採取多數投票結果?

因爲我們無法從重估和不同影響消除器等緩解方法中獲得預測概率的信息

多數投票的結果意味着與Xi相關的每對子組之間的比較所得到的所有結果中,有利的類所佔的比例.當只有少數子組時,如果我們只使用多數投票來確定分數,那麼有很多實例具有相同的分數值。這導致很難根據分數值確定應該選擇哪些實例來更改它們的類。然後我們還使用從分類方法中提取的預測概率來計算分數。爲了平衡多數投票結果和預測概率,我們引入了一個權衡參數w

實驗:

MS是按摩預處理技術。該方法根據分類器的預測得分,選擇訓練數據的升降級實例(將有利類標籤修改爲不利類標籤,反之亦然)進行預處理。

AD是一種對抗性去偏處理,它的目的是最小化從預測類中預測敏感屬性值的可能性。

ROC是基於拒絕選擇的分類,作爲後處理,在分類閾值附近修改類標籤。此時,受保護組中的實例被修改爲有利的類,而非受保護組中的實例被修改爲不利的類。

EO是作爲後處理開發的最優均等概率/機會預測器,確保各組間預測結果的真、假陽性率沒有差異。

數據集:

實驗結果:

實驗結果表明,與傳統的分類器和普通分類器相比,我們的方法能更好地減輕交叉偏倚。我們還證實了該方法可以通過調整視差的上限來控制交流性和公平性之間的平衡。證明了我們的方法能夠在滿足廣泛的公平性要求的同時,減輕不同現實情況下的交叉偏差。

展望:我們期望在未來提出新的基於公平意識的二值分類方法和標準時,能夠減少考慮交叉偏倚的負擔。