前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【每周CV论文推荐】基于GAN的对抗攻击,适合阅读那些文章入门?

【每周CV论文推荐】基于GAN的对抗攻击,适合阅读那些文章入门?

作者头像
用户1508658
发布2022-11-07 21:43:44
8540
发布2022-11-07 21:43:44
举报
文章被收录于专栏:有三AI有三AI

欢迎来到《每周CV论文推荐》。在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题的。

在图像分类的对抗攻击任务中,如果在图片上添加一个很小的扰动,虽然图像没有显著的视觉变化,但其可令分类器出现类别误判,这是GAN的一个重要应用领域。本文将推荐7篇对抗攻击的相关论文。

作者&编辑 | 小米粥

编辑 | 言有三

1. BFGS

对抗攻击领域的开山之作,首次提出了对抗样本的概念。论文同时提出了一种基于梯度的白盒攻击算法BFGS。BFGS通过最小化损失函数,使得神经网络做出误分类,将问题转化为凸优化问题。

文章引用量:1.1w+

推荐指数:?????

[1] Szegedy C, Zaremba W, Sutskever I, et al. Intriguing properties of neural networks[J]. arXiv preprint arXiv:1312.6199, 2013.

2. FGSM

快速梯度符号方法(FGSM)是Goodfellow等人在2014年提出的一种著名的对抗样本生成方法,是一种非定向攻击方法,也是一种基于梯度的方法。此外,FGSM常用于模型的对抗训练。此外,在FGSM的基础上,也出现了类似的I-FSM,R+FGSM等方法。

文章引用量:1.2w+

推荐指数:?????

[2] Goodfellow I J, Shlens J, Szegedy C. Explaining and harnessing adversarial examples[J]. arXiv preprint arXiv:1412.6572, 2014.

[3] Tramèr F, Kurakin A, Papernot N, et al. Ensemble adversarial training: Attacks and defenses[J]. arXiv preprint arXiv:1705.07204, 2017.

3. DeepFool

DeepFool是一种基于超平面分类的对抗样本生成方法,其计算最小的必要扰动从而将样本移动至超平面上,使分类器产生分类错误。

文章引用量:3800+

推荐指数:?????

[4] Moosavi-Dezfooli S M, Fawzi A, Frossard P. Deepfool: a simple and accurate method to fool deep neural networks[C]// Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 2574-2582.

4. FreeAT

FreeAT(Free Adversarial Training)基于FGSM的对计算过程进行了改进,在计算效率和训练速度上进行了优化。

文章引用量:700+

推荐指数:?????

[5] Shafahi A, Najibi M, Ghiasi M A, et al. Adversarial training for free![J]. Advances in Neural Information Processing Systems, 2019, 32.

5. ZOO

ZOO首次使用基于分数(score)的(例如类别概率)的对抗样本生成方法,是一种对分类模型信息未知的黑盒攻击方法。ZOO的核心思想是通过已知数据来训练新的替代模型,并在替代模型上进行攻击。

文章引用量:1100+

推荐指数:?????

[6] Chen P Y, Zhang H, Sharma Y, et al. Zoo: Zeroth order optimization based black-box attacks to deep neural networks without training substitute models[C]//Proceedings of the 10th ACM workshop on artificial intelligence and security. 2017: 15-26.

6. Boundary Attack

Boundary Attack是一种基于决策的对抗攻击算法,也是一种黑盒算法。Boundary Attack相比于基于分数的方法,更具有鲁棒性,也更贴近现实情况。

文章引用量:900+

推荐指数:?????

[7] Brendel W, Rauber J, Bethge M. Decision-based adversarial attacks: Reliable attacks against black-box machine learning models[J]. arXiv preprint arXiv:1712.04248, 2017.

5 如何进行实战

由于本次推荐的论文与图像生成有关联,为了帮助大家掌握相关前置知识!我们推出了相关的专栏课程《深度学习之图像生成GAN:理论与实践》,感兴趣可以进一步阅读:

【视频课】CV必学,超6小时,2大模块,循序渐进地搞懂GAN图像生成!

总结

本次我们介绍了基于GAN的图像对抗攻击方法,这是GAN的一类非常重要的应用,从事相关方向的朋友可以通过阅读这些文章进行初步了解。

本文参与?腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-09-30,如有侵权请联系?cloudcommunity@tencent.com 删除

本文分享自 有三AI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与?腾讯云自媒体分享计划? ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
http://www.vxiaotou.com