京东二面要求做一个机器学习-模型公平性相关的调研,所以整理一下更新在这里(之后有时间会继续更新一些缓解算法)
历史数据中存在偏差(例如肤色、种族等)或者有偏数据可能会导致人工智能和机器学习系统可能会表现出不公平的行为。 定义不公平行为的一种方法是按其损害或对人的影响来定义。损害大致有两种,一是可能会对特定群体提供或拒绝提供机会、资源或信息;二是存在对一个人群的工作质量没有针对另一个人群的工作质量好的情况。
Demographic Parity
1
−
∣
P
(
Y
^
=
1
∣
S
=
1
)
−
P
(
Y
ˆ
=
1
∣
S
=
0
)
∣
1 − |P(hat{Y} = 1|S = 1) − P(Yˆ = 1|S = 0)|
1−∣P(Y^=1∣S=1)−P(Yˆ=1∣S=0)∣ 记作
D
P
DP
DP
Equality of Odds
0.5 × [ E q O p p 0 + E q O p p 1 ] 0.5 × [EqOpp0 + EqOpp1] 0.5×[EqOpp0+EqOpp1]记作 E q O d d EqOdd EqOdd
Accuracy
P
(
Y
^
=
y
∣
Y
=
y
,
S
=
1
)
P(hat{Y} = y|Y = y, S = 1)
P(Y^=y∣Y=y,S=1)记作
s
1
−
a
c
c
s1-acc
s1−acc
P
(
Y
^
=
y
∣
Y
=
y
,
S
=
0
)
P(hat{Y} = y|Y = y, S = 0)
P(Y^=y∣Y=y,S=0)记作
s
0
−
a
c
c
s0-acc
s0−acc
$accuracy = 0.5 × [s1-acc + s0-acc]
记作
记作
记作acc$
Disparity in selection rate
此指标包含不同子群体之间的选择率差异。 此差异的一个示例是贷款批准率差异。 选择率是指每个分类中归类为 1 的数据点所占的比例(在二元分类中)。
Tabel from Charan Reddy et al(2021)
Individual Fairness
U
n
f
a
i
r
=
1
n
1
n
2
∑
(
x
i
,
y
i
)
∈
S
1
,
(
x
j
,
y
j
)
∈
S
2
d
(
y
i
,
y
j
)
(
w
⋅
x
i
−
w
⋅
x
j
)
2
Unfair = frac{1}{n_{1}n_{2}} sum_{(x_{i},y_{i})in S_{1},(x_{j},y_{j})in S_{2}}d(y_{i},y_{j})(wcdot x_{i}-wcdot x_{j})^{2}
Unfair=n1n21∑(xi,yi)∈S1,(xj,yj)∈S2d(yi,yj)(w⋅xi−w⋅xj)2
其中
d
d
d是一个随着
∣
y
i
−
y
j
∣
|y_{i}-y_{j}|
∣yi−yj∣增大而增大的非负函数,
S
1
S_{1}
S1和
S
2
S_{2}
S2是由敏感特征
S
S
S划分的两组,
w
w
w是由包含敏感特征的全部数据训练出来的线性模型系数。
这里的Unfair相当于是用
∣
y
i
−
y
j
∣
|y_{i}-y_{j}|
∣yi−yj∣作为权重衡量
w
w
w对于
S
1
S_{1}
S1和
S
2
S_{2}
S2两组数据的不同影响,且高估某一组的因变量不能通过高估另一个组的因变量来消除影响。
Group Fairness
U
n
f
a
i
r
2
=
(
1
n
1
n
2
∑
(
x
i
,
y
i
)
∈
S
1
,
(
x
j
,
y
j
)
∈
S
2
d
(
y
i
,
y
j
)
(
w
⋅
x
i
−
w
⋅
x
j
)
)
2
Unfair_{2} = (frac{1}{n_{1}n_{2}} sum_{(x_{i},y_{i})in S_{1},(x_{j},y_{j})in S_{2}}d(y_{i},y_{j})(wcdot x_{i}-wcdot x_{j}))^{2}
Unfair2=(n1n21∑(xi,yi)∈S1,(xj,yj)∈S2d(yi,yj)(w⋅xi−w⋅xj))2
U
n
f
a
i
r
2
Unfair_{2}
Unfair2和
U
n
f
a
i
r
Unfair
Unfair的区别在于
U
n
f
a
i
r
2
Unfair_{2}
Unfair2允许这样一种情况,如果模型高估了一组的因变量,可以通过高估另一个组的因变量来消除。
Statistical Parity
预测函数
f
f
f如果独立于某个受保护的属性
S
S
S,我们就说该函数满足 SP 要求。即当
f
(
X
)
∈
[
0
,
1
]
f(X)in [0,1]
f(X)∈[0,1]时,有
P
[
f
(
X
)
≤
z
∣
S
=
s
]
=
P
[
f
(
x
)
≤
z
]
P[f(X)le z|S=s]=P[f(x)le z]
P[f(X)≤z∣S=s]=P[f(x)≤z]
可以用
P
[
f
(
X
)
≤
z
∣
S
=
s
]
−
P
[
f
(
X
)
≤
z
]
P[f(X) le z | S = s] -P[f(X)le z]
P[f(X)≤z∣S=s]−P[f(X)≤z]进行度量
Bounded group loss
对于每个受保护的属性S来说,预测损失都低于某一预先确定的值,即衡量的是
E
[
l
(
Y
,
f
(
X
)
)
∣
S
=
s
]
E[l(Y,f(X))|S=s]
E[l(Y,f(X))∣S=s]。
Disparity in selection rate
与分类模型的定义相似,只不过在回归模型中,选择率是指预测值的分布。可以考虑KL散度等衡量分布差异性的指标
Pairwise Fairness
假设回归模型输出的分数越高越好(比如大学录取率,放贷率),那么每个组都希望自己的到更高的分数,我们要控制的就是每个组得到更高的分数的比率。
本文发布于:2025-04-07 18:25:00,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/1744021535584944.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |