【对抗样本(十一)】Is Robustness the Cost of Accuracy A Comprehensive Study on the Robustness of 18 Deep Image Classification Models


  1. 相同模型族具有较高的对抗迁移性
  2. 模型结构对鲁棒性的影响大于模型大小
  3. VGG网络结构的对抗样本的迁移性优于其他模型

摘要

为了解密模型鲁棒性和准确率之间的trade-off,本文使用多个鲁棒性指标彻底研究了18个基准ImageNet模型,包括失真,成功率,对抗样本在306对模型之间的迁移性。实验结果揭露了几个insight:

  1. 线性缩放规则,经验地l2和l∞失真指标与分类错误对数呈现线性关系;
  2. 模型结构对鲁棒性而言是比模型大小更关键的因素,闭式准确率-鲁棒性帕累托前沿可以用来验证ImageNet模型设计的好坏
  3. 在l∞范数下,对于一个相似的网络结构(网络族),增强模型的深度对于提升鲁棒性的帮助很小
  4. VGG模型族展现出很高的对抗迁移性。[代码][https://github.com/huanzhang12/Adversarial Survey]

1 引言

文献[13]、[14]理论分析了一些简单网络的鲁棒性,通过估计他们的全局和局部Lipschitz常数。[15]提出使用极值理论来估计最小对抗失真的下界,能够有效地应用到任何神经网络中。[16]提出了基于ReLU激活函数的线性近似的鲁棒下界。在本文,作者利用特定攻击和攻击认知方法评估了DNN模型的鲁棒性。

2.1 深度神经网络结构

2.2 攻击方法

2.3 数据集

ImageNet。从ImageNet验证集中随机选择1000张图片来为每个模型生成对抗样本。对于每个模型,进行了目标攻击和最不同无目标攻击。

2.4 评估指标

思考:两个问题:第一个是无目标攻击不能称为是攻击成功率,而应该定义成fooling rate;第二个是不同攻击算法的性能是存在差异的。(但是如果在相同的对比条件下,应该可以说明问题?)

3 实验

18个模型,ImageNet作为基准数据集

3.1 对抗攻击的评估

未来验证每个模型的鲁棒性,原始的误分类图像被排除。

3.3 不同模型大小和结构的鲁棒性

作者发现对模型鲁棒性的影响因素中模型结构是比模型大小更重要。尽管模型的大小和深度不同,但每个网络家族展现出相似层级的鲁棒性。AlexNet模型的鲁棒性最好(60million参数),而mobile模型最差(1.5million参数)

对于DenseNet, ResNet和Inception而言,在l∞失真指标下,更深的网络架构带来的鲁棒性提升很小。

3.4 对抗样本的迁移性

使用了不同的指标:无目标迁移性攻击,top-5 matching rate来验证目标迁移攻击。(注意:定义?指定的目标只有一个,5个目标怎么评估?

由于不是所有模型的输入都是一样的,因此对图片进行resize。然而[50]指出,简单的resize操作会极大地降低迁移攻击成功率。未来缓解这个问题,作者采用了以下策略:

结论:

  1. 在无目标迁移攻击设置下,FGSM和I-FGSM具有较好的迁移攻击成功率。

image-20211102193740826

  1. 在无目标迁移攻击设置中,FGSM,大的ε值生成较好的迁移性样本;然而对于IFGSM,更少次的迭代生成迁移性更好的对抗样本。对于无目标EAD-L1,高的k值导致更好的EAD-L1,但是远小于I-FGSM方法。
  2. 对抗样本的迁移性有时候是不对称
  3. VGG网络族的迁移性优于其他模型
  4. 最近大部分网络有一些独特的特征,将对抗样本的迁移性限制到相同的族内。相同结构不同深度的网络几乎具有100%的网络迁移性,但是他们对其他未知模型的迁移性却很差。

实验结果看原文。

Table of Contents