论文DOI:Li Hu, Anli Yan, Hongyang Yan, Jin Li, Teng Huang, Yingying Zhang, Changyu Dong, Chunsheng Yang. Defenses to Membership Inference Attacks:A Survey. ACM Computing Surveys, 2023, DOI: https://dl.acm.org/doi/10.1145/3620667.
背景
机器学习(ML)在计算机视觉和自然语言处理等各个领域得到了广泛的应用。然而,ML模型容易受到成员推理攻击(MIAs)的影响,该攻击可推断出访问数据是否被用于训练目标模型,从而危及训练数据的隐私,这促使研究人员专注于保护ML的隐私。尽管已经做出了大量努力来防御MIAs,但仍然缺乏对这一领域进展的全面了解,这往往使得在设计防御方案中很难确定最有效的策略。在本文中,我们旨在通过系统分析成员推理防御来填补这一关键的知识空白。
论文成果
具体而言,我们从成员推理攻击的根本原理出发,根据攻击者获得的知识量对成员推理攻击工作进行了梳理。随后,首先从成员推理防御技术的角度,对现有的防御技术展开了分析。然后,以防御阶段为划分点,清晰地展示了计算机视觉领域中分类模型的成员推理防御工作中的研究进展和研究思路。最后结合成员推理攻击与防御原理,讨论了成员推理防御工作面临的挑战,并指出了未来研究的潜在方向。通过这次全面的调查,我们希望能为成员推理防御研究奠定坚实的基础。
ACM Computing Surveys是国际上公认的计算机领域顶级期刊之一,旨在刊登计算机领域最前沿并具有代表性的综述论文,也是中国科学院SCI一区期刊,最新影响因子为14.3。
该论文第一作者为广州大学黄埔研究院进驻单位人工智能研究院博士研究生胡丽,导师李进教授,论文合作者包括人工智能研究院杨春生院士、董长宇教授、闫红洋副教授、黄腾副教授、严安丽博士后和张盈盈硕士研究生。