精确率(precision) 、召回率(recall) : 其实只是分母不同,一个分母是预测为正的样本数,另一个是原来样本中所有的正样本数。
ROC曲线,PR曲线,AUC等机器学习性能评价指标
主要依据
机器学习模型通常对 在它们“训练集中的数据”和“非训练集中的数据”有不同的behavior. 验证此条依据的实验结果见下图 :
攻击者可以据此训练一个attack model,根据target model对某条数据的输出来推断该数据是否在target model的训练集当中.
为了提高攻击的accuracy,进一步根据target model输出的每一个class都单独训练一个模型,即 attack model由一簇model组成.
challenge & idea & solution
整体思路 (本文的target model是针对于多分类问题)
针对每一个class,攻击者生成一系列的data record,若target model对其中的样本 ( x , y ) (bm{x},y) (x,y)输出的预测向量为 y bm{y} y,则根据该样本是否在shadow model的训练集当中来生成训练样本 ( y , y , i n ) (bm{y},y,in) (y,y,in)或 ( y , y , o u t ) (bm{y},y,out) (y,y,out) ,用来训练标签为 i n in in/ o u t out out的2分类模型作为attack model.
quadquadquadquad 注 : 关于为什么要在 ( y , y , i n / o u t ) (bm{y},y,in/out) (y,y,in/out)中传入 x bm{x} x的真实分类标签 y y y , 是由于 考虑到 x bm{x} x的预测向量 y bm{y} y的分布很大程度上依赖于 y y y
Shadow Model
Shadow Model不是用其他ML算法后重新建立的模型, 而是把喂给target model的训练集换成 Shadow Training Set 后得出的模型.
其中, Shadow Training Set 中的每一条样本, 就是上述思想中攻击者生成的一系列data record.
因此, ★与其说是 shadow model, 不如说 其本质核心是 shadow (training) datasets. 如下图:
Shadow Model的核心 即合成数据(data for shadow models)的方法
综上, membership inference attack model 的总体训练流程 :
得到attack modeld的训练集后, 根据 y y y的不同划分训练集, 划分出的每个子集对应一个class, 用来训练针对该class的2分类器.
若攻击样本 ( x , y ) (bm{x},y) (x,y) 则将target model对 x bm{x} x输出的 y bm{y} y, 辅以 y y y作为attack model的输入, 来得出该样本是否 ∈ in ∈target model的训练集.
对attack modeld来说, 其难点在于 : 针对任何一个class, training inputs是被目标模型以high confidence合成的data, 而 non-training inputs同样是被目标模型以high confidence合成的data, 需要学习的是区分该training inputs 和 non-training inputs.
Accuracy of the attack
baseline accuracy = 0.5 (因为是从target model的训练集和测试集中随机选出相同数量的样本向attack model查询)
注意需要对不同的class标签分别计算precision和recall (因为各class的训练集的size和元素不同, 导致了不同的class有不同的attack accuracy)
quad
1.用CIFAR测试一系列不同size下的各class :
结果分析 : target model的class标签个数越多则攻击效果越好。(因为class越多则target model的内部结构等信息会向attack model暴露地越多)
2.用Purchase测试对Google Prediction API 、Amazon ML的攻击:
3.用Purchase针对Google Prediction API、Amazon ML、Neural networks都做测试 :
quad
quad
shadow training data 的效果
1.用shadow model中的三种合成数据(data for shadow models)的方法分别进行攻击:
结论 : a membership inference attack can be trained with only black-box access to the target model, without any prior knowledge about the distribution of the target model ’ ’ ’s training data
quad
quad
number of classes and training data per class 对攻击效果的影响
quad
1.验证根据Fig.4提出的分析 : target model(以分类任务为例)的class标签个数越多则攻击效果越好。实验结果如下图:
(或许因为class越多则target model的内部结构等信息会向attack model暴露地越多 , 也或许因为class越多则越容易过拟合)
2.进一步验证每个class中的训练数据越多 会对 attack accuracy产生的影响,但结果显示这会降低攻击效果:
quad
在各个数据集之间进行对比:
可见 : 只有当target model在训练集和测试集上的预测精度相差很大时, attack model的效果才越好, 否则离baseline相差不大。
文章中曾提到了过拟合可能增加攻击效果, 而过拟合也会使target model在训练集和测试集上的预测精度相差较大。
但效果不好的几个例子也可能和数据集的class的总数量较少, 或每个class下的数据量较多等因素有关。
例如MNIST和Adult数据集的class的总数量较少, 后者甚至只有两个class即对应的target model是二分类模型。
总而言之, 影响攻击效果的可能因素 : target model的过拟合 、target model的structure and type 、训练集的diversity
由本文还可以看出过拟合的缺点不仅是模型的预测能力差, 还会泄露训练集的敏感信息。
此外,本文提出的攻击方法也可以作为一个新的度量方式来检验target model的隐私保护能力(或隐私泄露水平)。
精确率(precision) 、召回率(recall)
Shokri, R., Stronati, M., Song, C., & Shmatikov, V. (2017). Membership Inference Attacks Against Machine Learning Models. ieee symposium on security and privacy.
本文发布于:2024-02-04 23:54:52,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170719284260917.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |