CCS 2024 | 如何严格衡量机器学习算法的隐私泄露? ETH有了新发现

-
arXiv地址:https://arxiv.org/pdf/2404.17399
-
GitHub代码:https://github.com/ethz-spylab/misleading-privacy-evals
-
论文标题:Evaluations of Machine Learning Privacy Defenses are Misleading
-
关注的是群体层面的平均隐私,但对最「脆弱」数据的隐私却关注甚少。但 privacy 并不应该是一个平均的指标!
-
使用很弱的、 非自适应的攻击。没有针对具体防御,做适应性攻击。
-
与模型性能过差的 DP 差分隐私方法进行相比,这种比较方式不够公平,容易误导人们对模型隐私保护效果的判断。
(来源:机器之心)



