摘要
由于深度学习算法具有特征表达能力强、特征自动提取以及端到端学习等突出优势,因此被越来越多的研究者应用至通信信号识别领域。然而,对抗样本的发现使得深度学习模型极大程度地暴露在潜在的风险因素中,并对当前的调制识别任务造成严重的影响。本文从攻击者的角度出发,通过对当前传输的通信信号添加对抗样本,以验证和评估目标对抗样本对调制识别模型的攻击性能。实验表明,当前的目标攻击可以有效地降低模型识别的精确度,所提出的logit指标可以更细粒度地用于衡量攻击的目标性效果。
随着各种通信系统的共存,无线电数据现在呈现出比以前更复杂和多样的特征,例如随机性、异构性和庞大性。由于其许多优点,深度学习越来越多地应用于通信领域,例如调制识别。为了满足用户之间的不同需求并充分利用信道容量,通信信号采用了不同的调制方式,基于调制识别,可以收集并分类信号特征如信号频谱、瞬时幅度和瞬时相位,以完成相关的推理和学习。同时,调制识别在缓解频谱资源短缺方面起着关键作用,并且是民用和军事应用中的重要技术手
尽管深度学习在解决无线电通信问题方面具有独特的优势,但深度神经网络(Deep Neural Networks,DNN)无法解释的黑盒属
对抗样本根据攻击的程度分为单步攻击和迭代攻击。单步攻击的对抗样本一次性地计算出梯度并进行生成,而迭代攻击的对抗样本则需要多步来完成更新。与单步攻击相比,迭代攻击可以产生更强的攻击效果,但是它需要不断地获取和更新被攻击模型的知识,从而花费更多的时间。为了确保不同攻击模型之间的可比性,本文选取了3类方法,来展开在调制识别任务中目标对抗攻击的研究,评估信号域的安全性问题。其中包括了两种迭代生成方法,投影梯度下降法(Projected Gradient Descent,PGD
FGSM由Goodfellow首次提出,可以快速生成对抗样本。以信号样本为例,希望对原始信号样本进行人眼无法识别的修改,但这会导致DNN模型的错误分类。假设原始信号样本为x,标识的类别结果为y,并且扰动为η,其中扰动要求足够小,即,其中为扰动的最大量级。记输入样本x的对抗样本为:
(1) |
考虑权重向量和对抗样本的内积:
(2) |
显然对抗扰动通过使得神经元的输出增大。如果权向量的维数为n并且权向量的均值为m,则的最大值为,此时。在高维空间中,即使是很小的扰动,也会对最终的输出值产生很大的影响。
PGD既是一种能有效抵御一阶对抗攻击的防御方法,从优化的角度研究神经网络的对抗鲁棒性,为之前对抗训练防御方法提供了统一的视角,又包含了生成对抗样本的方法,因此该方法也可以用来攻击目标模型。本文采用了PGD来展开对模型的对抗攻击。该方法的核心公式也称之为鞍点公式,具体如下:
(3) |
式中:是定义的总体风险;D是样本分布;S是允许的扰动。该公式由内部的最大化和外部的最小化两个问题构成。内部的最大化问题旨在找到实现最大损失的数据的扰动,这实际上是攻击问题,满足最大化条件的样本有很大概率是对抗样本。外部的最小化问题旨在找到模型的参数使得攻击的对抗损失最小,这实际上是训练鲁棒分类器的问题。其次,鞍点问题给出了理想的鲁棒模型所需要达到的确切目标,也就是衡量鲁棒性的标准。
在对抗攻击中,按照攻击是否有目标可分为目标攻击和非目标攻击。非目标攻击不会指定神经网络输出某个固定的类别,除了原始类别之外,预测的对抗样本类别可以是任意的,即信号攻击者可以产生导致任何错误分类的扰动。目标攻击通常发生在多类分类问题中,诱导深度神经网络输出到指定的类别。例如在调制信号中,攻击者欺骗分类器,将QPSK、QAM64等信号都无差别地输出为BPSK,目标攻击通常会使目标对抗类的概率最大化。
令信号感知模型的输入信号x,并输出最可能的y类。在通信信道中,x表示复杂样本的单个通道。通过寻求最大化相同的损失函数,从而降低目标感知系统的准确性。此时,该优化问题可定义为:
(5) |
分类器的参数固定,但可以通过操作输入x,利用之前所述的对抗样本生成方法,产生通信信号对抗样本,深度学习模型将输出错误类别,从而欺骗目标感知模型,实现非目标攻击。
目标攻击与非目标攻击使用了相同的损失函数,但也有几个重要区别:
(6) |
式中原标签y替换为了己方需要指定目标错误分类的类别。为了提升目标类的可信度,需要最小化目标的损失函数,以使得目标分类器尽可能减少当前分类与目标类别之间的差
将目标诱导与FGSM算法结合,可以得到:
(7) |
式中:F可以看作目标函数,t是目标类别。FGSM每进行一次迭代时,梯度都会从原始的输入通信信号x开始更新,然后通过优化生成伪装信号。进一步,在BIM中,由于它是对FGSM进行了迭代更新,因此通过每次迭代时进行小的修改而不是一次性更新,最终完成目标对抗样本的创建。
(8) |
式中clip是将每次迭代生成的值按照需要裁剪在一定范围内,每次的扰动程度为。通过进行N次迭代后,最终完成扰动总值的添加。
通常情况下,研究者一般以DNN模型的softmax层的输出中最大的预测值作为置信度,以评估分类器的分类性能,而这主要利用了softmax的两个主要优势,一是归一化,即不同的预测概率值和为1,每一个样本的预测值都是一个小于1的数值;二是扩大化,即softmax的指数运算有明显的放大效果,如果输入分别为1和5,输出中5的占比能到98%以上。然而,当分析对抗样本的目标攻击性能时,更专注的是模型对不同样本预测的原始值,即能够从预测结果中观察到不同样本之间的真实差异,从而精准地衡量和评估扰动添加后模型对数据集的预测结果的实际影响。
因此,本文从分类器模型的倒数第二层即logit层入手,来对当前目标对抗样本的攻击性能展开评估。提出了一套改进的通用指标,即logits组合评价,该指标由源类logits差值和目标类logits差值构成。通过两个不同角度的logits差值,可以直观地看出扰动添加前后模型对当前样本的分类效果。
源类logits差值表示从真实类输出中减去所有不正确类的最大输出,可以通过以下方式描述:
(9) |
式中:为原始类别的logit值;为除了原始类别之外其他类别中具有最大预测的logit值。显然,在没有扰动添加的情况下,logits差值应当为正,即模型的预测标签即为样本的真正标签,而随着扰动的逐步添加,当样本被识别为其他类别后,显然会大于,此时logits差值就会为负值。从诱导目标的类别角度出发,又可以logits组合评价中的目标类logits差值:
(10) |
式中:为所选定的目标类型的logit值;为除了目标类之外的最大的logit值。显然,从目标类的角度出发,可以更加清晰直观地衡量和判断出当前目标性攻击的性能和不同信号类型的抗扰动能力。
为了确保调制数据与分类器模型相匹配,选择了参考文献[

图1 VT-CNN2 结构示意图
Fig. 1 Schematic diagram of VT-CNN2 structure
选择了GNU Radio生成的RADIOML 2016.10
与计算机视觉领域相似,在调制识别中,给输入的信号样本添加细微的扰动,在使得分类器输出错误结果的同时,能够欺骗人类,使其无法察觉出区别来。令信号的输入样本为x,扰动为rx,则扰动后深度学习模型输出的对抗样本可以认定为xad =x+rx。本文从攻击者的角度出发,生成和添加这一类的扰动rx,使得DNN模型对扰动后的信号进行错误分类,同时也能够朝着既定的目标生成目标对抗样本。
首先,本文在10 dB和-10 dB的信噪比下,对比和分析了VT-CNN2模型输出准确率随扰动的变化。如

图2 不同SNR下分类器模型预测精确度随扰动的变化
Fig.2 The prediction accuracy of the classifier model under different SNR changes with perturbation
为了进一步分析当前对抗样本对调制识别模型的目标性性能,即当前的通信信号在添加扰动后是否可以诱导分类器模型归类于指定的目标类别,例如在军事场景下将一台坦克定向地错误分类为导弹或者火箭炮,本文采用了FGSM算法,进一步在VT-CNN2上发起了目标攻击,并且通过指定不同的目标类别来验证当前对抗样本的目标性能。
由

图3 调制识别模型在logit层的预测值输出
Fig.3 The predicted value output of the modulation recognition model in the logit layer
此外,不同信号对抗样本的攻击策略是不同的。对于8PSK而言,可以看出随着扰动增加,与8PSK最接近的信号类型,输出的logits均呈现出上升的趋势,也就是此时对抗样本的攻击侧重于增加其他类型信号的输出预测值,当其他信号的输出置信度高于当前信号的置信度时攻击就成功了。而对于CPFSK,对抗样本的攻击侧重于削弱对当前类型样本输出的预测值,因此其他信号的输出值高于当前信号的预测值时,攻击才会达成目标。

图4 调制识别模型在logit层的预测差值
Fig.4 The logit difference between the source class and the target class of the modulation recognition model
可见,有了logits差值,可以更加形象地将不同样本logit值给剥离出来,专注于对当前样本的预测变化趋势,并且可以根据logits差值曲线与x轴交点的远近,从而判断当前的样本的易扰动性以及是否容易被对抗样本诱导为其他类别。此外,根据logits组合评价,还可以进一步分析得到不同信号样本的抗扰动能力,即通过观察不同信号首次被成功攻击时对应的扰动系数,判断当前样本的易诱导能力和鲁棒性。
本文分析了目标对抗性攻击在调制识别中引起的安全性问题,并结合所提出的logits组合评价指标评估了目标对抗样本的有效性和目标性。本文在不同的实验场景下对调制信号添加了细微的人眼无法察觉的扰动,然后将其输入至深度学习模型,以愚弄分类器并诱导其预测出错误的类别,过程中使用了logits组合评价来对目标攻击效果进行细粒度的评估。实验结果表明,对抗样本对基于深度学习的调制识别任务造成了严重的威胁和破坏,可以诱导模型将输入信号预测为所指定的类别,所提的logits指标可以帮助更细粒度地分析目标对抗攻击的能力,以及评估信号样本的易扰动性。
参考文献
O'SHEA T J,ROY T,CLANCY T C. Over-the-air deep learning based radio signal classification[J]. IEEE Journal of Selected Topics in Signal Processing, 2018,12(1):168-179. [百度学术]
O'SHEA T,HOYDIS J. An introduction to deep learning for the physical layer[J]. IEEE Transactions on Cognitive Communications and Networking, 2017,3(4):563-575. [百度学术]
LIN Y,TU Y,DOU Z,et al. The application of deep learning in communication signal modulation recognition[C]// 2017 IEEE/CIC International Conference on Communications in China(ICCC). Qingdao,China:IEEE, 2017:1-5. [百度学术]
张智博,樊雅玄,孟骁. 基于谱图和神经网络的通信干扰模式识别方法[J]. 太赫兹科学与电子信息学报, 2019,17(6):959-963. [百度学术]
ZHANG Zhibo,FAN Yaxuan,MEGN Xiao. Pattern recognition method of communication interference based on power spectrum density and neural network[J]. Journal of Terahertz Science and Electronic Information Technology, 2019,17(6):959-963. [百度学术]
SUN H,CHEN X,SHI Q,et al. Learning to optimize:training deep neural networks for wireless resource management[C]// 2017 IEEE 18th International Workshop on Signal Processing Advances in Wireless Communications(SPAWC). Sapporo,Japan:IEEE, 2017:1-6. [百度学术]
查雄,彭华,秦鑫,等. 基于多端卷积神经网络的调制识别方法[J]. 通信学报, 2019(11):30-37. [百度学术]
ZHA Xiong, PENG Hua, QIN Xin,et al. Modulation recognition method based on multi-inputs convolution neural network[J]. Journal of Communications, 2019(11):30-37. [百度学术]
TU Y,LIN Y,WANG J,et al. Semi-supervised learning with generative adversarial networks on digital signal modulation classification[J]. Computers, Materials & Continua, 2018,55(2):243-254. [百度学术]
吴灏,周亮,李亚星,等. 基于卷积神经网络和稀疏滤波的调制识别方法[J]. 系统工程与电子技术, 2019(9):2114-2121. [百度学术]
WU Hao,ZHOU Liang,LI Yaxing,et al. Modulation classification based on convolutional neural network and sparse filtering[J]. Systems Engineering and Electronics, 2019(9):2114-2121. [百度学术]
SZEGEDY C,ZAREMBA W,SUTSKEVR I,et al. Intriguing properties of neural networks[C]// 2nd International Conference on Learning Representations. Banff,Canada:[s.n.], 2012:1-10. [百度学术]
LIN Y,ZHAO H,TU Y,et al. Threats of adversarial attacks in DNN-based modulation recognition[C]// 2020 IEEE Conference on Computer Communications. Toronto,ON,Canada:IEEE, 2020:2469-2478. [百度学术]
MADRY A,MAKELOV A,SCHMIDT L,et al. Towards deep learning models resistant to adversarial attacks[C]// The 6th International Conference on Learning Representations. Vancouver,Canada:[s.n.], 2016:1-23. [百度学术]
KURAKIN A,GOODFELLOW I,BENGIO S. Adversarial examples in the physical world[C]// The 6th International Conference on Learning Representations. Vancouver,Canada:[s.n.], 2016:128-141. [百度学术]
GOODFELLOW I J,SHLENS J,SZEGEDY C. Explaining and harnessing adversarial examples[C]// The 5th International Conference on Learning Representations. San Diego,CA,USA:2015:1-11. [百度学术]
YUAN X,HE P,ZHU Q,et al. Adversarial examples:attacks and defenses for deep learning[J]. IEEE Transactions on Neural Networks and Learning Systems, 2019,30(9):2805-2824. [百度学术]
O'SHEA T,WEST N. Radio machine learning dataset generation with GNU radio[J]. Proceedings for the 6th GNU Radio Conference, 2016,1(1):1-6. [百度学术]
DeepSig. Deepsig dataset:radioml 2016[EB/OL]. [2020-12-10]. https://www.deepsig.io/datasets. [百度学术]