使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于DB-YOLO的双基地雷达弱运动目标检测方法  PDF

  • 陆源
  • 宋杰
  • 熊伟
  • 陈小龙
海军航空大学 信息融合研究所,山东 烟台 264001

中图分类号: TN914.42

最近更新:2024-03-15

DOI:10.11805/TKYDA2023170

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

非合作双基地雷达因其特殊的探测方式,致使回波中目标信噪比较低,特别是海上运动目标,在雷达扫描周期的帧与帧之间探测并不稳定,会对后续目标跟踪造成较大困难。本文首先采用低门限恒虚警率(CFAR)检测器将雷达距离-多普勒维和距离-方位维的检测结果匹配,得到相应掩码图,筛选出潜在的运动目标;然后提出一种融合多维特征信息的双主干YOLO(DB-YOLO),该网络采用双主干结构,同时提取动目标掩码图和其映射下相同尺度P显图的特征,并采用深度可分离卷积模块降低网络的模型参数。将该模型与Faster RCNN、YOLOv5及其常见变种YOLOv5-ConvNeXt进行对比,实验表明,DB-YOLO有效提高了目标检测性能并保证了推理速度,为非合作双基地雷达的目标跟踪奠定了基础。

随着现代战场的电磁环境日益复杂,传统的有源雷达由于其主动发射电磁波,容易被敌方发现,人们开始研究新体制雷达,即非合作双基地雷达。非合作雷达辐射源目标探测系统是以非合作雷达为辐射源,基于双基地雷达工作方式,开展目标探测的无源探测系[

1]。相对于传统的有源单基地雷达,非合作双基地雷达隐蔽性好,成本低,“四抗”能力强,可以借用敌方高成本雷达探测敌方,具有较为明显的优[2]。其接收系统的工作原理是以非合作雷达辐射源发射的直达波信号为参考,检测分析目标散射回波信号,从而实现对目标的定位和跟[3]。但非合作双基地雷达由于辐射源的不确定性以及双基地几何模型的限制,其在探测过程中面临诸多问题:如,同步过程中直达波参数估计时会产生误差;接收通道会受其几何模型的影响而存在较强的直达波和多径干[4],同时系统所处的环境也会带来一定的杂波。上述多种因素共同作用会导致雷达回波信号较弱,目标信噪比低,非合作双基地雷达扫描周期之间帧与帧之间的目标检测并不稳定。因此,对目标进行稳定探测始终是雷达面临的挑战之一。恒虚警率(CFAR)作为一种经典的雷达目标检测技术,可以根据雷达杂波数据动态调整门限,在虚警率保持不变的情况下实现目标检测概率最大[5]。CFAR检测器已在过去的时间内得到了广泛而充分的研究,其核心思想是:将接收到的信号振幅与自适应门限进行比较,超过检测门限,则判断目标存在;否则,判断目标不存[6]。经典的CFAR检测将目标或环境模型视为随机过程,通常基于统计理论,但现实的检测环境复杂,目标类型多变,依赖于先验知识和经验的CFAR检测不具备普适性,难以适应不同噪声分布的情[7]

近年来,随着人工智能算法的发展,神经网络以其较强的非线性映射能力而广泛用于雷达传感器领域,实际上,回波信息到检验统计量可被视为一个非线性映[

8]。海军航空大学牟效乾采用预训练模型以及雷达P显图的帧间累积对INet进行优化,提高了检测概率和复杂条件下的强泛化能[9]。苏宁远等利用卷积神经网络(Convolutional Neural Networks,CNN)对雷达回波的时频图进行特征提取,实现了海面目标检测与运动类型的分[10]。西南交通大学的宋云云等将毫米波雷达的传感器信息和视觉信息进行融合,提高了天气变化条件下目标检测的鲁棒[11]。非合作双基地雷达由于其特殊的几何特性以及非合作辐射源的不定性,在探测过程中目标信噪比较低,特别是运动目标在雷达扫描的帧与帧之间探测不稳定,如果仅使用传统的CFAR检测器检测目标会带来大量的虚警,不利于后续目标跟踪。因此,如何有效利用深度学习强大的特征提取能力并结合运动目标的多普勒信息,对提升非合作双基地雷达运动弱目标的检测性能具有一定的研究意义。

本文提出一种基于雷达P显图和运动目标掩码图融合的深度学习目标检测网络DB-YOLO,是在YOLOv5的基础上,采用双主干结构分别提取雷达P显图和动目标掩码图的特征信息,并使用深度可分离卷积对网络参数进行优化,最后采用非合作双基地雷达对海目标探测场景下的自制数据集进行训练和测试。实验结果证明,所提网络的目标检测模型具有一定的优越性,可以提升非合作双基地雷达运动弱目标的检测能力,同时为航迹起始、目标跟踪打下一定的基础。

1 非合作双基地雷达及传统检测存在的问题

1.1 非合作双基地雷达

图1为非合作双基地雷达的几何关系,Tx为非合作雷达辐射源发射站,Rx为接收站,Tg为目标;TxRx间距为基线距离Lθtθr分别为发射站与接收站的目标方位角,RtRr分别为目标到发射站与接收站的距离。双基地距离差Rd=Rt+Rr-L

图1  非合作双基地雷达几何关系示意图

Fig.1  Geometry diagram of non-cooperative bistatic radar

通常情况下,发射机主瓣很少同时覆盖目标及接收机。非合作辐射源的直达波往往来自其旁瓣。因此,大多数情况下,参考接收机处于旁瓣侦收状态。雷达天线的旁瓣电平通常比主瓣的峰值低20~50 dB[

12]。因经过了一次反射,目标散射回波的能量相比直达波再次衰减,导致目标信噪比较[13]

1.2 传统CFAR检测存在的问题

将目标从噪声、杂波和干扰信号中区分出来是设计雷达检测器的重要目的。经典方法是基于统计模型建立自适应检测门限,门限随噪声和杂波能量的变化而变化。为最小化虚警率Pf和最大化检测概率Pd,采用奈曼皮尔逊准则进行决[

14]。这一问题通常通过CFAR检测器解决,CFAR检测器自适应地确定一个局部最优门限,并将Pf保持为预定值。但对于弱目标的检测,如果门限设置较高,将产生漏检;如果门限设置较低,将产生大量的虚警。以本文使用的非合作双基地雷达为例,当CFAR检测器的参考单元数量设为32,保护单元数量为16,缩放因子为1.5时,雷达扫描周期相邻两帧的距离-方位检测结果如图2所示,未经检测的原始P显图如3所示。图2中target 1和target 2在前一帧均被检测到,但在后一帧中均出现了漏检。这是由于非合作双基地雷达辐射源的不确定性以及双基地几何模型的限制等所造成的,雷达扫描周期帧与帧之间探测并不稳定。因此,对该体制雷达单纯使用传统的CFAR检测器并不能达到较好的检测性能。

图2  相邻帧距离-方位检测结果

Fig.2  Range-azimuth detection results of adjacent frames

图3  相邻帧P显图

Fig.3  PPI of adjacent frames

2 动目标掩码图构建

雷达的距离-方位图中包含运动目标和静止目标的位置信息,而距离-多普勒图中只包含运动目标的位置信息。对于运动目标的检测,如果能够将这两个维度的信息结合起来并反映到雷达P显图上,可以作为一种辅助检测的手段。构建掩码图可分为3个过程:

1) 低门限CFAR检测。对距离-方位维和距离-多普勒维分别进行低门限的CFAR检测,低门限的CFAR检测虽会产生一定的虚警,但可以在两个维度上分别保留尽可能多的目标信息,为后续两者匹配做准备。

2) 二值化图像目标框选。CFAR检测后的结果为二值化的灰度图像,由于二值化后的目标形状并不规则,不利于检测结果的匹配。因此,利用OpenCV中的图像轮廓提取函数将不规则的目标用矩形框框选出来。

3) 目标框匹配和掩码图构建。距离-方位维可以显示目标的位置信息,距离-多普勒维可以显示运动目标的速度和位置信息。以距离-多普勒图的检测框为基础候选框,将每个候选框的中心点在距离方向上的数值作为匹配标准,循环遍历每个候选框,并与距离-方位图中的检测框进行比对。如果距离方向上的位置落在预定的宽度范围内,则视为匹配成功。这样可以将距离-方位维度中的潜在运动目标框筛选出来。最后,将筛选后的运动目标框与周围的背景噪声进行二值化,可以在极坐标系统中绘制出动目标的掩码图。

2个维度低门限CFAR检测后的匹配过程如图4所示,其中红色实线表示正确匹配的动目标,红色虚线表示错误匹配的动目标。产生错误匹配的原因一方面是由于距离-多普勒维本身的虚警,另一方面是由于同一个距离向在不同方位有可能会产生多个匹配结果。虽仍存在一定的虚警,但这种匹配方法可以有效抑制雷达P显图上运动目标的虚警,同时将多普勒信息进行非线性映射,使信息量增加。

图4  掩码图构建示意图

Fig.4  Mask diagram construction

3 DB-YOLO网络结构

融合多维特征信息的非合作双基地雷达目标检测算法是在标准YOLOv5s网[

15]上进行改进的,由于其运用了双主干特征提取结构,因此被称作DB-YOLO。DB-YOLO设计了2个主干网络,分别提取雷达P显图和动目标掩码图的特征,并分别将特征提取网络输出的3个不同深度的有效特征层进行融合,最后使用这3个特征层进行检测。该网络实现了运动目标多普勒特征和原始雷达P显图的多维信息融合。下面详细介绍DB-YOLO的网络结构及参数设置。

3.1 DB-YOLO整体结构

YOLOv5在COCO数据集上的表现说明,其在保证一定精确度的情况下也具有明显的速度优势。但由于非合作双基地雷达本身的几何特性、辐射源的非合作性以及地物杂波和多径干扰等问题,目标的信噪比较低,特别是运动目标在雷达扫描周期的帧与帧之间受杂波干扰等因素的影响,目标的大小强弱会有变化,探测并不稳定,漏检率和虚警率仍较高。

为提高非合作双基地雷达运动目标检测的准确率和降低虚警率,增强算法的泛化能[

9],本文设计了同时提取雷达P显图特征和动目标掩码图特征的双主干目标检测网络DB-YOLO,如图5所示。首先,使用低门限CFAR检测器处理雷达信号,得到距离-多普勒维和距离-方位维的检测结果,实现了对雷达图像的检测;其次,将以上2个维度结果进行匹配,得到对应雷达扫描周期的掩码图,之后对掩码图进行二值化,得到运动目标反映在对应P显图上的掩码图。为提高检测精确度,本文采用双主干网络同时提取雷达P显图特征和动目标掩码图特征,并将运动目标位置特征进行融合。使用MobileNet替换原先的主干网络CSPDarknet,有效缓解双主干网络计算量增大的问题;最后,将得到的特征送入DB-YOLO检测模型中进行目标检测。

图5  DB-YOLO整体网络结构示意图

Fig.5  Diagram of DB-YOLO overall network structure

3.2 MobileNet主干网络

MobileNet是一种常用于移动设备的轻量级卷积神经网络,能够在模型准确率小幅下降的情况下,占用较小的显存,并减少模型运算[

16]。常被作为目标检测网络的主干网络对输入特征进行初步的特征提取,在减少网络参数的同时,具有优秀的特征提取效果。其核心是深度可分离卷积块,如图6所示。

图6  深度可分离卷积示意图

Fig.6  Depth wise separable convolution diagram

深度可分离卷积块主要由逐层卷积(Depth Wise convolution,DW)和逐点卷积(Point Wise convolution,PW)构成。DW使每一个卷积核与输入特征的每一个通道进行卷积运算,因此,输出特征图通道数与输入通道数M相等;PW使DW输出的特征图依次与1×1的卷积相作用,调整输出特征图的通道数N[

17]。传统卷积的参数量为深度可分离卷积的1N+1DK2倍,其中DK为卷积核的维度,以常用的卷积核大小3为例,其运算量约为19

3.3 双主干网络设计

低门限CFAR检测算法所得到的动目标掩码图像可以根据目标的明暗程度较好地反映出运动目标所在的位置。通过二值化后的图像不仅可以得到目标的位置信息,还包含了多普勒等更加隐含的信息。因此,在目标检测任务中,可以借助特征提取网络将低门限CFAR检测结果作为辅助信息,以提高检测的精确度。

雷达P显图可提取的色彩信息较少,目标分辨力较低,目标相似度较高,会给目标检测任务带来一定的困难。为解决这些问题,选择MobileNetV1作为主干网络。相对于CSPDarknet,MobileNetV1在参数量和网络结构上都有优势。具体来说,使用MobileNetV1时,参数量可以从7 276 605减少到6 960 829,因而能够降低过拟合的风险;在网络结构上,MobileNetV1采用了深度可分离卷积,并能够利用普通卷积提取目标特征,更好地处理雷达P显图所具有的特点。因此,本文设计了双主干网络结构,使用低门限CFAR检测结果作为辅助信息,借助MobileNetV1进行特征提取,对雷达进行目标检测。具体网络结构示意图如图7所示。

图7  DB-YOLO网络模块组成及连接示意图

Fig.7  Diagram of DB-YOLO network module composition and connection

动目标掩码图分支和雷达P显图分支共同构成了网络的主干。其中,Feat1、Feat2、Feat3为2个分支中输出的3个有效特征层,它们通过特定的特征融合方式进行结合。本文采用增加特征层的通道数的特征融合方式,利用来自不同尺度的特征图的语义信息,从而更好地整合掩码图和雷达P显图的信息。3个特征层的维度分别为100×100×256、50×50×512和25×25×1 024,其特征提取位置通常位于步长为1的深度可分离卷积块之后,通过卷积进行通道数的压缩并进行归一化,保证连接的两层参数在同一级别。使用CSP2_1、CBL和上采样模块的组合构建颈部层,颈部层的主要功能是对两路特征进行融合。其中左右两侧分别是特征金字塔网络(Feature Pyramid Network,FPN)和路径聚合网络(Path Aggregation Network,PAN)结构,分别接收双主干网络中不同层次的特征,对它们进行全方位的特征融合,并生成3种分辨力不同的特征。最后,使用3个分辨力不同的特征图进行检测,3个检测头的维度分别为100×100×18、50×50×18和25×25×18,能够更准确地定位目标的位置和尺寸。

4 模型训练及实验结果分析评价

4.1 非合作双基地雷达检测数据集

本文采用的数据为非合作双基地雷达对海探测系统实际外场实验后得到的真实数据,实验场景在烟台附近海域。其中选用的非合作雷达辐射源为L波段岸基对海雷达,实验的探测目标是进出港口的船只,探测的主要区域由接收站定向天线所指的方向决定。具体的实验场景和所得的P显示图如图8所示。可以清晰地看到探测结果和船舶自动识别系统(Automatic Identification System,AIS)数据之间有着良好的对应关系。

图8  实验场景及PPI显示

Fig.8  Experimental scenarios and PPI

由于在实际数据采集过程中获取连续的多帧数据成本较高,数据量较大,且对运动目标采用手动标注的方式工作量较大,因此,使用点扩散函数模拟运动目标,这样既可以根据运动模型批量进行数据标注,也可以据此生成批量的航迹,为后续目标跟踪打下基础。数据集分为雷达P显图和动目标掩码图两种,具体信息见表1

表1  数据集信息
Table1  Data set information
PPI/MASKnumber of track groupsnumber of track frames per groupnumber of moving targets in a single frame
8 000 200 40 7

数据集按照9:1的比例划分为训练集加验证集和测试集,标注方式根据不同的运动模板、运动模型对标准VOC2007格式中的XML文件进行批量读写,实现自动标注。根据观测地海域的实际情况,截取原始雷达P显图从正北到正东90°扇面,每张图片的尺寸为800×800,并且和动目标掩码图相对应。

4.2 模型训练及参数设置

本文实验环境如表2所示。使用随机梯度下降(Stochastic Gradient Descent,SGD)优化器迭代训练,输入图像统一缩放为800×800分辨力;训练的最大学习率设置为0.02,最小学习率为0.01,使用余弦退火调整学习率;迭代次数设置为200,批训练规模(Batch size)设置为16。Faster RCNN因其网络结构和另外两组对照差别较大,在具体参数设置上有一定的变化。

表2  实验环境
Table2  Experimental environment
parametersconfiguration information
CPU Platinum 8255C
memory 40 GB
GPU RTX3080
GPU video memory 12 GB
IDE Pycharm
system Ubuntu18.04
language Python
CUDA version CUDA 11.1
frame PyTorch 1.8.1

非合作双基地雷达目标检测实验以主流目标检测算法YOLOv5s和Faster RCNN作为对照实验,以精确率(P)、召回率(R)、mAP值和一秒处理帧数(Frames Per Second,FPS)作为模型评价指[

18]。其中,mAP指标可以更全面地评估算法在不同召回率下的检测精确度。同时,本文采用交并比(Intersection Over Union,IOU)门限为0.5来确定检测是否成功,选择FPS作为一种评价模型检测速度的指标。表3为DB-YOLO和3种目标检测算法的参数设置,其中Faster RCNN为一种双阶段目标检测算法,主干提取网络为VGG(Visual Geometry Group),因此其参数量较大;YOLOv5-ConvNeXt使用ConvNeXt替换了YOLOv5原先的主干网路,是一种常见的变种方式,ConvNeXt采用了较大的深度可分离卷积块、倒瓶颈结构以及GeLU激活函数,在ImageNet数据集上表现优[19]。因此,ConvNeXt常被用作替换目标检测的主干网络,但其参数量较大,为YOLOv5s的4倍多、DB-YOLO的3倍左右。在数据集方面,DB-YOLO使用雷达P显和动目标掩码图双输入,其他3种参考网络都以雷达P显图作为单一输入。

表3  网络训练参数
Table3  Network training parameters
datasetoptimizerbatch sizeweight decaymomentumparameters
Faster RCNN PPI Adam 8 0 0.900 137.0 M
YOLOv5s PPI SGD 16 5×10-4 0.937 7.2 M
YOLOv5-ConvNeXt PPI SGD 16 5×10-4 0.937 31.4 M
DB-YOLO PPI+MASK SGD 16 5×10-4 0.937 11.0 M

根据表4的实验结果,4种不同的目标检测模型在最佳权重下的性能有所不同。Faster RCNN的检测效果较差,且mAP值也较低。与其他模型相比,DB-YOLO在动态目标检测准确率、召回率、F1值和mAP值等方面表现出色,性能明显优于其他模型。采用双主干网络会导致网络参数量的增加,但DB-YOLO使用MobileNetV1主干网络,相对于CSPDarknet单个特征提取网络,参数量有所下降,且避免了最大池化等操作对目标姿态等信息的影响,保证了一定的FPS,且mAP值相对YOLOv5s提升了3.1%。虽然处理单帧图像的时间大约为YOLOv5s的2倍,但DB-YOLO在实际应用中表现优秀,使得它在动态目标检测领域具有广泛的应用前景。

表4  模型性能比较
Table4  Model performance comparison
NetprecisionrecallF1mAPprocessing time per-feame/msFPS
Faster RCNN 58.3 44.9 51.0 45.4 85.3 11
YOLOv5s 83.7 87.0 85.3 87.8 16.5 60
YOLOv5-ConvNeXt 82.2 83.3 82.7 85.1 72.7 14
DB-YOLO 83.8 87.2 85.4 90.9 30.2 33

经过200轮的训练,模型的结果如图9所示。其中Faster RCNN的mAP值一直在45左右波动,准确率较低且稳定性不佳。这是由于数据集中的运动目标大多分布在中等目标和小目标中,并且分辨力较低。Faster RCNN使用了预先定义的锚框检测目标,而YOLO框架则使用了以网格单元为基础的锚框设置,相对于图像网格单元的坐标回归框位置,而不是绝对坐标回归。这种方式相对更加灵活,可以更好地适应目标的位置变化,从而提高了对小目标的检测能力。同时,YOLO框架通过在不同尺度下进行目标检测,使用不同大小的锚框,从而更好地适应了不同尺度的目标。此外,YOLO框架采用了特征金字塔结构,通过在不同层次的特征图上检测目标,有效地捕捉了不同尺度的特征信息。相比之下,其他3种网络模型的mAP值最终趋于稳定,而本文提出的DB-YOLO表现最佳,mAP值可以达到90.9%。从图9中的损失函数可以看出,DB-YOLO的收敛速度更快,模型更优。

图9  模型训练结果

Fig.9  Model training results

4.3 检测结果分析

分析3种目标检测模型在特定任务下的表现。观察图10可以发现,YOLOv5s和YOLOv5-ConvNeXt均产生了漏检(漏检的结果用黑色圆圈标出),而DB-YOLO成功将所有目标都检测出来。为更直观地感受网络关注的区域,选用Grad-CAM(Gradient-weighted Class Activation Mapping)热力图进行展[

20]。对比YOLOv5s和YOLOv5-ConvNeXt的热力图可以得出:两种目标检测模型对信噪比较强的目标,所关注的区域大致相同,可视化后的亮度相似;而对于信噪比较弱的目标,这两种模型虽然都有各自不同程度的关注度,但由于置信度较低,检测器并没有将其判定为目标。将以上两种参照模型和DB-YOLO的热力图相比较,可以发现DB-YOLO对所有受杂波干扰的弱运动目标都有关注,且模型对目标的关注都有明显的聚焦。

图10  模型检测结果对比

Fig.10  Comparison of model test results

为更充分论证DB-YOLO模型对弱运动目标的检测性能有所提升,选取目标运动到近岸时作为典型场景,此时海杂波较强,目标信噪比为0.256 2 dB。从图11可以看到,YOLOv5并没有检测到淹没在杂波中的运动目标,而DB-YOLO成功检测出该目标。对比两者的热力图可以发现,融合了动目标掩码图特征后,网络更加明确地关注了区域特征,在所有的运动目标上都有不同程度的集中,特别是对于弱小目标的增强效果更为显著。

图11  弱运动目标局部检测结果对比图

Fig.11  Comparison of local detection results

同时,为证明DB-YOLO在经过雷达多维特征信息融合后对动目标检测性能的提升,将本文算法与统计类目标检测方法进行对比,评价指标选用检测概率Pd,结果如表5所示。从表5中可以看出,匹配后的动目标掩码图对静止目标有一定的抑制作用。与其他两种传统检测算法相比,DB-YOLO的检测概率为0.922 3,表现更加优异。这表明,经过雷达多维特征信息融合后的DB-YOLO算法,在动目标检测方面具有良好的性能提升效果。相对于传统的检测算法,DB-YOLO算法可以更准确地检测到动态目标,进一步提高了目标检测的效率与精确度。

表5  与传统检测方法对比
Table5  Comparison with conventional methods
methodPd
CA-CFAR 0.823 3
Mask-CFAR 0.873 8
DB-YOLO 0.922 3

5 结论

针对非合作双基地雷达在目标探测过程中由于特殊的几何方式、雷达本身的非合作性质以及受地物杂波和多径干扰而导致的目标信号较弱、帧与帧之间探测不稳定等问题,本文结合深度学习,提出了一种双主干深度学习神经网络DB-YOLO,用于非合作双基地雷达的弱运动目标检测。DB-YOLO主要基于原始YOLOv5网络,将雷达P显图和对应的动目标掩码图同时进行特征提取,并在送入颈部层之前进行特征融合,最后检测输出。此外,为构建动目标掩码图,对距离-多普勒维和距离-方位维分别进行低门限CFAR检测并将检测结果匹配,成功将目标的多普勒信息映射到与雷达P显图相同尺度规模的掩码图上。DB-YOLO与双阶段Faster RCNN、单阶段YOLOv5s以及其常见变种YOLOv5-ConvNeXt相比,目标检测性能提升,mAP达到了90.9%,FPS达到了33,满足实时检测的要求,为非合作双基地雷达目标跟踪奠定基础。同时DB-YOLO也能够有效检测出受干扰场景下的运动目标,Grad-CAM热力图可以显示网络检测过程中关注的区域,增强了模型的可解释性。

参考文献

1

鲍庆龙,王森,潘嘉蒙,. 非合作雷达辐射源目标探测系统关键技术分析[J]. 电波科学学报, 2020,35(4):496-503. [百度学术] 

BAO Qinglong,WANG Sen,PAN Jiameng,et al. Key technology analysis of target detection system based on non-cooperative radar illuminator[J]. Chinese Journal of Radio Science, 2020,35(4):496-503. doi:10.13443/j.cjors.2020040702. [百度学术] 

2

毛二可,曾涛,胡程,. 基于地球同步轨道合成孔径雷达的双基地探测系统:概念及潜力[J]. 信号处理, 2013,29(3):285-292. [百度学术] 

MAO Erke,ZENG Tao,HU Cheng,et al. Bistatic detection based on geosynchronous SAR:concept and potentiality[J]. Signal Processing, 2013,29(3):285-292. doi:10.3969/j.issn.1003-0530.2013.03.001. [百度学术] 

3

葛先军,何友,宋杰. 基于改进CMA+MMA的直达波脉冲复包络估计技术[J]. 现代雷达, 2010,32(12):54-59. [百度学术] 

GE Xianjun,HE You,SONG Jie. Complex envelope estimation techniques of direct-path pulse signals using modified CMA+MMA[J]. Modern Radar, 2010,32(12):54-59. doi:10.3969/j.issn.1004-7859.2010.12.012. [百度学术] 

4

王森,鲍庆龙,潘嘉蒙,. 基于改进概率假设密度滤波器的非合作双基地雷达目标跟踪[J]. 系统工程与电子技术, 2023,45(7):2002-2009. [百度学术] 

WANG Sen,BAO Qinglong,PAN Jiameng,et al. Target tracking for noncooperative bistatic radar based on improved probability hypothesis density filter[J]. Systems Engineering and Electronics, 2023,45(7):2002-2009. doi:10.12305/j.issn.1001-506X.2023.07.10. [百度学术] 

5

邹成晓,张海霞,程玉堃. 雷达恒虚警率检测算法综述[J]. 雷达与对抗, 2021,41(2):29-35. [百度学术] 

ZOU Chengxiao,ZHANG Haixia, CHENG Yukun. Radar CFAR detection algorithms review[J]. Radar & ECM, 2021,41(2):29-35. doi:10.19341/j.cnki.issn.1009-0401.2021.02.007. [百度学术] 

6

MAHAFZA B R. Radar systems analysis and design using Matlab[M]. 2nd ed. New York:Chapman and Hall/CRC, 2005:79-81. doi:10.1201/9781420057072. [百度学术] 

7

钟雅婷. 基于深度学习的雷达RD时频数据目标检测方法研究[D]. 成都:电子科技大学, 2022. [百度学术] 

ZHONG Yating. Research on radar RD time-frequency data target detection method based on deep learning[D]. Chengdu,China:University of Electronic Science and Technology of China, 2022. [百度学术] 

8

高畅. 基于深度学习的雷达目标检测与跟踪方法研究[D]. 西安:西安电子科技大学, 2021. [百度学术] 

GAO Chang. Research on radar target detection and tracking method based on deep learning[D]. Xi'an,China:Xidian University, 2021. doi:10.27005/d.cnki.gdzku.2022.001441. [百度学术] 

9

牟效乾,陈小龙,关键,. 基于INet的雷达图像杂波抑制和目标检测方法[J]. 雷达学报, 2020,9(4):640-653. [百度学术] 

MU Xiaoqian, CHEN Xiaolong,GUAN Jian,et al. Clutter suppression and marine target detection for radar images based on INet[J]. Journal of Radars, 2020,9(4):640-653. doi:10.12000/JR20090. [百度学术] 

10

苏宁远,陈小龙,关键,. 基于卷积神经网络的海上微动目标检测与分类方法[J]. 雷达学报, 2018,7(5):565-574. [百度学术] 

SU Ningyuan,CHEN Xiaolong,GUAN Jian,et al. Detection and classification of maritime target with micro-motion based on CNNs[J]. Journal of Radars, 2018,7(5):565-574. doi:10.12000/JR18077. [百度学术] 

11

SONG Yunyun,XIE Zhengyu,WANG Xinwei,et al. MS-YOLO:object detection based on YOLOv5 optimized fusion millimeter-wave radar and machine vision[J]. IEEE Sensors Journal, 2022,22(15):15435-15447. doi:10.1109/JSEN.2022.3167251. [百度学术] 

12

SONG Jie,XIONG Wei,CHEN Xiaolong,et al. Experimental study of maritime moving target detection using hitchhiking bistatic radar[J]. Remote Sensing, 2022,14(15):3611. doi:10.3390/rs14153611. [百度学术] 

13

邵玉娥. 基于导航卫星的多基地外辐射源雷达目标定位和跟踪[D]. 西安:西安电子科技大学, 2022. [百度学术] 

SHAO Yu'e. Multi-static passive radar target location and tracking based on navigation satellite[D]. Xi'an,China:Xidian University, 2022. [百度学术] 

14

张帅. 海面小目标多帧联合检测方法研究[D]. 西安:西安电子科技大学, 2019. [百度学术] 

ZHANG Shuai. Research on multi-frame joint detection method of sea surface small target[D]. Xi'an,China:Xidian University, 2019. doi:10.7666/d.D01907899. [百度学术] 

15

赵璐璐,王学营,张翼,. 基于YOLOv5s融合SENet的车辆目标检测技术研究[J]. 图学学报, 2022,43(5):776-782. [百度学术] 

ZHAO Lulu,WANG Xueying,ZHANG Yi,et al. Vehicle target detection based on YOLOv5s fusion SENet[J]. Journal of Graphics, 2022, 43(5):776-782. doi:10.11996/JG.j.2095-302X.2022050776. [百度学术] 

16

QIN Zheng,ZHANG Zhaoning,CHEN Xiaotao,et al. Fd-Mobilenet:improved mobilenet with a fast downsampling strategy[C]// 2018 the 25th IEEE International Conference on Image Processing(ICIP). Athens,Greece:IEEE, 2018:1363-1367. doi:10.1109/ICIP.2018.8451355. [百度学术] 

17

LIU Fucong,XU Hui,QI Miao,et al. Depth-wise separable convolution attention module for garbage image classification[J]. Sustainability, 2022,14(5):3099. doi:10.3390/su14053099. [百度学术] 

18

张永. 基于图卷积网络和显式张量表示的胶囊网络图分类方法研究[D]. 西安:西安理工大学, 2021. [百度学术] 

ZHANG Yong. Research on capsule network graph classification method based on graph convolutional network and explicit tensor representation[D]. Xi'an,China:Xi'an University of Technology, 2021. doi:10.27398/d.cnki.gxalu.2021.000859. [百度学术] 

19

LI Jiachen,WANG Chixin,HUANG Banan,et al. ConvNeXt-backbone HoVerNet for nuclei segmentation and classification[DB/OL]. (2022-02-28). https://arxiv.org/abs/2202.13560. doi:10.48550/arXiv.2202.13560. [百度学术] 

20

SELVARAJU R R,COGSWELL M,DAS A,et al. Grad-CAM:visual explanations from deep networks via Gradient-Based localization[C]// 2017 IEEE International Conference on Computer Vision(ICCV). Venice,Italy:IEEE, 2017:618-626. doi: 10.1109/ICCV.2017.74. [百度学术]