摘要
非合作双基地雷达因其特殊的探测方式,致使回波中目标信噪比较低,特别是海上运动目标,在雷达扫描周期的帧与帧之间探测并不稳定,会对后续目标跟踪造成较大困难。本文首先采用低门限恒虚警率(CFAR)检测器将雷达距离-多普勒维和距离-方位维的检测结果匹配,得到相应掩码图,筛选出潜在的运动目标;然后提出一种融合多维特征信息的双主干YOLO(DB-YOLO),该网络采用双主干结构,同时提取动目标掩码图和其映射下相同尺度P显图的特征,并采用深度可分离卷积模块降低网络的模型参数。将该模型与Faster RCNN、YOLOv5及其常见变种YOLOv5-ConvNeXt进行对比,实验表明,DB-YOLO有效提高了目标检测性能并保证了推理速度,为非合作双基地雷达的目标跟踪奠定了基础。
随着现代战场的电磁环境日益复杂,传统的有源雷达由于其主动发射电磁波,容易被敌方发现,人们开始研究新体制雷达,即非合作双基地雷达。非合作雷达辐射源目标探测系统是以非合作雷达为辐射源,基于双基地雷达工作方式,开展目标探测的无源探测系
近年来,随着人工智能算法的发展,神经网络以其较强的非线性映射能力而广泛用于雷达传感器领域,实际上,回波信息到检验统计量可被视为一个非线性映
本文提出一种基于雷达P显图和运动目标掩码图融合的深度学习目标检测网络DB-YOLO,是在YOLOv5的基础上,采用双主干结构分别提取雷达P显图和动目标掩码图的特征信息,并使用深度可分离卷积对网络参数进行优化,最后采用非合作双基地雷达对海目标探测场景下的自制数据集进行训练和测试。实验结果证明,所提网络的目标检测模型具有一定的优越性,可以提升非合作双基地雷达运动弱目标的检测能力,同时为航迹起始、目标跟踪打下一定的基础。

图1 非合作双基地雷达几何关系示意图
Fig.1 Geometry diagram of non-cooperative bistatic radar
通常情况下,发射机主瓣很少同时覆盖目标及接收机。非合作辐射源的直达波往往来自其旁瓣。因此,大多数情况下,参考接收机处于旁瓣侦收状态。雷达天线的旁瓣电平通常比主瓣的峰值低20~50 d
将目标从噪声、杂波和干扰信号中区分出来是设计雷达检测器的重要目的。经典方法是基于统计模型建立自适应检测门限,门限随噪声和杂波能量的变化而变化。为最小化虚警率和最大化检测概率,采用奈曼皮尔逊准则进行决

图2 相邻帧距离-方位检测结果
Fig.2 Range-azimuth detection results of adjacent frames

图3 相邻帧P显图
Fig.3 PPI of adjacent frames
雷达的距离-方位图中包含运动目标和静止目标的位置信息,而距离-多普勒图中只包含运动目标的位置信息。对于运动目标的检测,如果能够将这两个维度的信息结合起来并反映到雷达P显图上,可以作为一种辅助检测的手段。构建掩码图可分为3个过程:
1) 低门限CFAR检测。对距离-方位维和距离-多普勒维分别进行低门限的CFAR检测,低门限的CFAR检测虽会产生一定的虚警,但可以在两个维度上分别保留尽可能多的目标信息,为后续两者匹配做准备。
2) 二值化图像目标框选。CFAR检测后的结果为二值化的灰度图像,由于二值化后的目标形状并不规则,不利于检测结果的匹配。因此,利用OpenCV中的图像轮廓提取函数将不规则的目标用矩形框框选出来。
3) 目标框匹配和掩码图构建。距离-方位维可以显示目标的位置信息,距离-多普勒维可以显示运动目标的速度和位置信息。以距离-多普勒图的检测框为基础候选框,将每个候选框的中心点在距离方向上的数值作为匹配标准,循环遍历每个候选框,并与距离-方位图中的检测框进行比对。如果距离方向上的位置落在预定的宽度范围内,则视为匹配成功。这样可以将距离-方位维度中的潜在运动目标框筛选出来。最后,将筛选后的运动目标框与周围的背景噪声进行二值化,可以在极坐标系统中绘制出动目标的掩码图。
2个维度低门限CFAR检测后的匹配过程如

图4 掩码图构建示意图
Fig.4 Mask diagram construction
融合多维特征信息的非合作双基地雷达目标检测算法是在标准YOLOv5s网
YOLOv5在COCO数据集上的表现说明,其在保证一定精确度的情况下也具有明显的速度优势。但由于非合作双基地雷达本身的几何特性、辐射源的非合作性以及地物杂波和多径干扰等问题,目标的信噪比较低,特别是运动目标在雷达扫描周期的帧与帧之间受杂波干扰等因素的影响,目标的大小强弱会有变化,探测并不稳定,漏检率和虚警率仍较高。
为提高非合作双基地雷达运动目标检测的准确率和降低虚警率,增强算法的泛化能

图5 DB-YOLO整体网络结构示意图
Fig.5 Diagram of DB-YOLO overall network structure
MobileNet是一种常用于移动设备的轻量级卷积神经网络,能够在模型准确率小幅下降的情况下,占用较小的显存,并减少模型运算

图6 深度可分离卷积示意图
Fig.6 Depth wise separable convolution diagram
深度可分离卷积块主要由逐层卷积(Depth Wise convolution,DW)和逐点卷积(Point Wise convolution,PW)构成。DW使每一个卷积核与输入特征的每一个通道进行卷积运算,因此,输出特征图通道数与输入通道数M相等;PW使DW输出的特征图依次与1×1的卷积相作用,调整输出特征图的通道数
低门限CFAR检测算法所得到的动目标掩码图像可以根据目标的明暗程度较好地反映出运动目标所在的位置。通过二值化后的图像不仅可以得到目标的位置信息,还包含了多普勒等更加隐含的信息。因此,在目标检测任务中,可以借助特征提取网络将低门限CFAR检测结果作为辅助信息,以提高检测的精确度。
雷达P显图可提取的色彩信息较少,目标分辨力较低,目标相似度较高,会给目标检测任务带来一定的困难。为解决这些问题,选择MobileNetV1作为主干网络。相对于CSPDarknet,MobileNetV1在参数量和网络结构上都有优势。具体来说,使用MobileNetV1时,参数量可以从7 276 605减少到6 960 829,因而能够降低过拟合的风险;在网络结构上,MobileNetV1采用了深度可分离卷积,并能够利用普通卷积提取目标特征,更好地处理雷达P显图所具有的特点。因此,本文设计了双主干网络结构,使用低门限CFAR检测结果作为辅助信息,借助MobileNetV1进行特征提取,对雷达进行目标检测。具体网络结构示意图如

图7 DB-YOLO网络模块组成及连接示意图
Fig.7 Diagram of DB-YOLO network module composition and connection
动目标掩码图分支和雷达P显图分支共同构成了网络的主干。其中,Feat1、Feat2、Feat3为2个分支中输出的3个有效特征层,它们通过特定的特征融合方式进行结合。本文采用增加特征层的通道数的特征融合方式,利用来自不同尺度的特征图的语义信息,从而更好地整合掩码图和雷达P显图的信息。3个特征层的维度分别为100×100×256、50×50×512和25×25×1 024,其特征提取位置通常位于步长为1的深度可分离卷积块之后,通过卷积进行通道数的压缩并进行归一化,保证连接的两层参数在同一级别。使用CSP2_1、CBL和上采样模块的组合构建颈部层,颈部层的主要功能是对两路特征进行融合。其中左右两侧分别是特征金字塔网络(Feature Pyramid Network,FPN)和路径聚合网络(Path Aggregation Network,PAN)结构,分别接收双主干网络中不同层次的特征,对它们进行全方位的特征融合,并生成3种分辨力不同的特征。最后,使用3个分辨力不同的特征图进行检测,3个检测头的维度分别为100×100×18、50×50×18和25×25×18,能够更准确地定位目标的位置和尺寸。
本文采用的数据为非合作双基地雷达对海探测系统实际外场实验后得到的真实数据,实验场景在烟台附近海域。其中选用的非合作雷达辐射源为L波段岸基对海雷达,实验的探测目标是进出港口的船只,探测的主要区域由接收站定向天线所指的方向决定。具体的实验场景和所得的P显示图如

图8 实验场景及PPI显示
Fig.8 Experimental scenarios and PPI
由于在实际数据采集过程中获取连续的多帧数据成本较高,数据量较大,且对运动目标采用手动标注的方式工作量较大,因此,使用点扩散函数模拟运动目标,这样既可以根据运动模型批量进行数据标注,也可以据此生成批量的航迹,为后续目标跟踪打下基础。数据集分为雷达P显图和动目标掩码图两种,具体信息见
PPI/MASK | number of track groups | number of track frames per group | number of moving targets in a single frame |
---|---|---|---|
8 000 | 200 | 40 | 7 |
数据集按照9:1的比例划分为训练集加验证集和测试集,标注方式根据不同的运动模板、运动模型对标准VOC2007格式中的XML文件进行批量读写,实现自动标注。根据观测地海域的实际情况,截取原始雷达P显图从正北到正东90°扇面,每张图片的尺寸为800×800,并且和动目标掩码图相对应。
本文实验环境如
parameters | configuration information |
---|---|
CPU | Platinum 8255C |
memory | 40 GB |
GPU | RTX3080 |
GPU video memory | 12 GB |
IDE | Pycharm |
system | Ubuntu18.04 |
language | Python |
CUDA version | CUDA 11.1 |
frame | PyTorch 1.8.1 |
非合作双基地雷达目标检测实验以主流目标检测算法YOLOv5s和Faster RCNN作为对照实验,以精确率(P)、召回率(R)、mAP值和一秒处理帧数(Frames Per Second,FPS)作为模型评价指
dataset | optimizer | batch size | weight decay | momentum | parameters | |
---|---|---|---|---|---|---|
Faster RCNN | PPI | Adam | 8 | 0 | 0.900 | 137.0 M |
YOLOv5s | PPI | SGD | 16 |
5×1 | 0.937 | 7.2 M |
YOLOv5-ConvNeXt | PPI | SGD | 16 |
5×1 | 0.937 | 31.4 M |
DB-YOLO | PPI+MASK | SGD | 16 |
5×1 | 0.937 | 11.0 M |
根据
Net | precision | recall | F1 | mAP | processing time per-feame/ms | FPS |
---|---|---|---|---|---|---|
Faster RCNN | 58.3 | 44.9 | 51.0 | 45.4 | 85.3 | 11 |
YOLOv5s | 83.7 | 87.0 | 85.3 | 87.8 | 16.5 | 60 |
YOLOv5-ConvNeXt | 82.2 | 83.3 | 82.7 | 85.1 | 72.7 | 14 |
DB-YOLO | 83.8 | 87.2 | 85.4 | 90.9 | 30.2 | 33 |
经过200轮的训练,模型的结果如

图9 模型训练结果
Fig.9 Model training results
分析3种目标检测模型在特定任务下的表现。观察

图10 模型检测结果对比
Fig.10 Comparison of model test results
为更充分论证DB-YOLO模型对弱运动目标的检测性能有所提升,选取目标运动到近岸时作为典型场景,此时海杂波较强,目标信噪比为0.256 2 dB。从

图11 弱运动目标局部检测结果对比图
Fig.11 Comparison of local detection results
同时,为证明DB-YOLO在经过雷达多维特征信息融合后对动目标检测性能的提升,将本文算法与统计类目标检测方法进行对比,评价指标选用检测概率,结果如
method | |
---|---|
CA-CFAR | 0.823 3 |
Mask-CFAR | 0.873 8 |
DB-YOLO | 0.922 3 |
针对非合作双基地雷达在目标探测过程中由于特殊的几何方式、雷达本身的非合作性质以及受地物杂波和多径干扰而导致的目标信号较弱、帧与帧之间探测不稳定等问题,本文结合深度学习,提出了一种双主干深度学习神经网络DB-YOLO,用于非合作双基地雷达的弱运动目标检测。DB-YOLO主要基于原始YOLOv5网络,将雷达P显图和对应的动目标掩码图同时进行特征提取,并在送入颈部层之前进行特征融合,最后检测输出。此外,为构建动目标掩码图,对距离-多普勒维和距离-方位维分别进行低门限CFAR检测并将检测结果匹配,成功将目标的多普勒信息映射到与雷达P显图相同尺度规模的掩码图上。DB-YOLO与双阶段Faster RCNN、单阶段YOLOv5s以及其常见变种YOLOv5-ConvNeXt相比,目标检测性能提升,mAP达到了90.9%,FPS达到了33,满足实时检测的要求,为非合作双基地雷达目标跟踪奠定基础。同时DB-YOLO也能够有效检测出受干扰场景下的运动目标,Grad-CAM热力图可以显示网络检测过程中关注的区域,增强了模型的可解释性。
参考文献
鲍庆龙,王森,潘嘉蒙,等. 非合作雷达辐射源目标探测系统关键技术分析[J]. 电波科学学报, 2020,35(4):496-503. [百度学术]
BAO Qinglong,WANG Sen,PAN Jiameng,et al. Key technology analysis of target detection system based on non-cooperative radar illuminator[J]. Chinese Journal of Radio Science, 2020,35(4):496-503. doi:10.13443/j.cjors.2020040702. [百度学术]
毛二可,曾涛,胡程,等. 基于地球同步轨道合成孔径雷达的双基地探测系统:概念及潜力[J]. 信号处理, 2013,29(3):285-292. [百度学术]
MAO Erke,ZENG Tao,HU Cheng,et al. Bistatic detection based on geosynchronous SAR:concept and potentiality[J]. Signal Processing, 2013,29(3):285-292. doi:10.3969/j.issn.1003-0530.2013.03.001. [百度学术]
葛先军,何友,宋杰. 基于改进CMA+MMA的直达波脉冲复包络估计技术[J]. 现代雷达, 2010,32(12):54-59. [百度学术]
GE Xianjun,HE You,SONG Jie. Complex envelope estimation techniques of direct-path pulse signals using modified CMA+MMA[J]. Modern Radar, 2010,32(12):54-59. doi:10.3969/j.issn.1004-7859.2010.12.012. [百度学术]
王森,鲍庆龙,潘嘉蒙,等. 基于改进概率假设密度滤波器的非合作双基地雷达目标跟踪[J]. 系统工程与电子技术, 2023,45(7):2002-2009. [百度学术]
WANG Sen,BAO Qinglong,PAN Jiameng,et al. Target tracking for noncooperative bistatic radar based on improved probability hypothesis density filter[J]. Systems Engineering and Electronics, 2023,45(7):2002-2009. doi:10.12305/j.issn.1001-506X.2023.07.10. [百度学术]
邹成晓,张海霞,程玉堃. 雷达恒虚警率检测算法综述[J]. 雷达与对抗, 2021,41(2):29-35. [百度学术]
ZOU Chengxiao,ZHANG Haixia, CHENG Yukun. Radar CFAR detection algorithms review[J]. Radar & ECM, 2021,41(2):29-35. doi:10.19341/j.cnki.issn.1009-0401.2021.02.007. [百度学术]
MAHAFZA B R. Radar systems analysis and design using Matlab[M]. 2nd ed. New York:Chapman and Hall/CRC, 2005:79-81. doi:10.1201/9781420057072. [百度学术]
钟雅婷. 基于深度学习的雷达RD时频数据目标检测方法研究[D]. 成都:电子科技大学, 2022. [百度学术]
ZHONG Yating. Research on radar RD time-frequency data target detection method based on deep learning[D]. Chengdu,China:University of Electronic Science and Technology of China, 2022. [百度学术]
高畅. 基于深度学习的雷达目标检测与跟踪方法研究[D]. 西安:西安电子科技大学, 2021. [百度学术]
GAO Chang. Research on radar target detection and tracking method based on deep learning[D]. Xi'an,China:Xidian University, 2021. doi:10.27005/d.cnki.gdzku.2022.001441. [百度学术]
牟效乾,陈小龙,关键,等. 基于INet的雷达图像杂波抑制和目标检测方法[J]. 雷达学报, 2020,9(4):640-653. [百度学术]
MU Xiaoqian, CHEN Xiaolong,GUAN Jian,et al. Clutter suppression and marine target detection for radar images based on INet[J]. Journal of Radars, 2020,9(4):640-653. doi:10.12000/JR20090. [百度学术]
苏宁远,陈小龙,关键,等. 基于卷积神经网络的海上微动目标检测与分类方法[J]. 雷达学报, 2018,7(5):565-574. [百度学术]
SU Ningyuan,CHEN Xiaolong,GUAN Jian,et al. Detection and classification of maritime target with micro-motion based on CNNs[J]. Journal of Radars, 2018,7(5):565-574. doi:10.12000/JR18077. [百度学术]
SONG Yunyun,XIE Zhengyu,WANG Xinwei,et al. MS-YOLO:object detection based on YOLOv5 optimized fusion millimeter-wave radar and machine vision[J]. IEEE Sensors Journal, 2022,22(15):15435-15447. doi:10.1109/JSEN.2022.3167251. [百度学术]
SONG Jie,XIONG Wei,CHEN Xiaolong,et al. Experimental study of maritime moving target detection using hitchhiking bistatic radar[J]. Remote Sensing, 2022,14(15):3611. doi:10.3390/rs14153611. [百度学术]
邵玉娥. 基于导航卫星的多基地外辐射源雷达目标定位和跟踪[D]. 西安:西安电子科技大学, 2022. [百度学术]
SHAO Yu'e. Multi-static passive radar target location and tracking based on navigation satellite[D]. Xi'an,China:Xidian University, 2022. [百度学术]
张帅. 海面小目标多帧联合检测方法研究[D]. 西安:西安电子科技大学, 2019. [百度学术]
ZHANG Shuai. Research on multi-frame joint detection method of sea surface small target[D]. Xi'an,China:Xidian University, 2019. doi:10.7666/d.D01907899. [百度学术]
赵璐璐,王学营,张翼,等. 基于YOLOv5s融合SENet的车辆目标检测技术研究[J]. 图学学报, 2022,43(5):776-782. [百度学术]
ZHAO Lulu,WANG Xueying,ZHANG Yi,et al. Vehicle target detection based on YOLOv5s fusion SENet[J]. Journal of Graphics, 2022, 43(5):776-782. doi:10.11996/JG.j.2095-302X.2022050776. [百度学术]
QIN Zheng,ZHANG Zhaoning,CHEN Xiaotao,et al. Fd-Mobilenet:improved mobilenet with a fast downsampling strategy[C]// 2018 the 25th IEEE International Conference on Image Processing(ICIP). Athens,Greece:IEEE, 2018:1363-1367. doi:10.1109/ICIP.2018.8451355. [百度学术]
LIU Fucong,XU Hui,QI Miao,et al. Depth-wise separable convolution attention module for garbage image classification[J]. Sustainability, 2022,14(5):3099. doi:10.3390/su14053099. [百度学术]
张永. 基于图卷积网络和显式张量表示的胶囊网络图分类方法研究[D]. 西安:西安理工大学, 2021. [百度学术]
ZHANG Yong. Research on capsule network graph classification method based on graph convolutional network and explicit tensor representation[D]. Xi'an,China:Xi'an University of Technology, 2021. doi:10.27398/d.cnki.gxalu.2021.000859. [百度学术]
LI Jiachen,WANG Chixin,HUANG Banan,et al. ConvNeXt-backbone HoVerNet for nuclei segmentation and classification[DB/OL]. (2022-02-28). https://arxiv.org/abs/2202.13560. doi:10.48550/arXiv.2202.13560. [百度学术]
SELVARAJU R R,COGSWELL M,DAS A,et al. Grad-CAM:visual explanations from deep networks via Gradient-Based localization[C]// 2017 IEEE International Conference on Computer Vision(ICCV). Venice,Italy:IEEE, 2017:618-626. doi: 10.1109/ICCV.2017.74. [百度学术]