文献标识码: A
DOI:10.16157/j.issn.0258-7998.212449
中文引用格式: 刘彤,杨德振,宋嘉乐,等. 空基下视多角度红外目标识别[J].电子技术应用,2022,48(7):131-139.
英文引用格式: Liu Tong,Yang Dezhen,Song Jiale,et al. Air-based downward-looking multi-angle infrared target recognition[J]. Application of Electronic Technique,2022,48(7):131-139.
0 引言
采用多个复合翼无人机集群的空基红外目标探测识别系统进行协同态势感知是地面远程红外制导的有效辅助手段。其中舰船和车辆目标的智能识别算法作为当代陆海防务系统中关键技术,对于保障我国的国防安全具有重要的应用价值。红外图像具有对比度高、作用距离远、穿透力强等特点,热成像不需要借助外界光源,隐蔽性好,可以全天时工作。目前多数车载系统的视角为平视,平视视场受限,而使用机载系统可以获得更大的下视视场角,在实战中能有效探测和拦截低空突防的威胁目标。
传统目标识别算法难以对下视视场角的图像进行特征提取,作为端到端学习的深度学习,能够自动提取图像特征,具有较好的目标识别能力。北京理工大学的王旭辰等[1]提出基于深度学习的无人机载多平台目标检测算法,使用Darknet-53网络作为检测器,在公开数据集UAV123和实测数据集中进行检测,验证得到该算法在视角旋转、目标尺度变化以及障碍物遮挡下能进行稳定检测。但文中仅使用了YOLOv3目标检测算法,并未对其进行改进,检测精度没有得到提高。电子科技大学的刘瑞[2]针对空中目标存在目标尺度及疏密程度变化大、存在重叠、遮挡等问题,提出四级复杂度的航空图像目标检测算法,采用复合扩张主干网深度和宽度的方法构建出四级复杂度的主干网络,再将主干网分别与FPN+PAN网络、输出头网络相结合,得到空中目标检测算法。在VisDrone-DET2020训练集下对提出的网络进行训练,将算法的mAP@[.5:.95]累计提升了0.65%,mAP@0.75累计提升了1.41%。但仅在公开数据集上进行训练与检测,该公开数据集仅为可见光数据集,不具备红外数据集所具备的优点。严开忠等[3]针对小型无人机载平台算力受限、检测速度慢的问题,提出了一种改进YOLOv3的目标检测算法,引入深度可分离卷积对主干网络进行改进,降低网络的参数和计算量,从而提高检测速度。此外使用K-means生成先验框的初始聚类中心,在边界框回归中使用CIoU损失,同时将DIoU与NMS相结合,提高算法的检测精度。在自定义数据集中的mAP为82%,检测速度从3.4 f/s提高到16 f/s。但算法的检测精度和速度仍有待提高。上海交通大学的朱壬泰等[4]针对目前深度学习中多目标检测算法占用资源量大,无法在中小型无人机平台上实时运行的问题,提出了基于卷积神经网络计算优化的算法。采用深度可分离卷积对计算量进行优化,将主干网Resnet18中的卷积层替换为深度可分离卷积,对改进的算法在公开数据集PASCAL VOC 2007进行验证,得到在检测精度不变的条件下,检测速度达到56 f/s。但该算法在航拍数据集上的检测精度由于与公开数据集分布的差异有所下降,对航拍目标的适应性不强。周子衿[5]针对深度学习网络结构复杂,机载平台计算资源有限,以及航拍视角中小目标数量大,难以对图像特征进行提取,容易出现漏检和错检现象,对YOLOv3网络进行轻量化处理,在网络稀疏化训练后进行BN层的通道剪枝,此外使用K-maens++算法对先验框进行重定义,将改进后的算法在自定义的DOTA-like数据集上进行测试,算法权重模型大小下将98.7%,使得推理时间加快了60.5%,检测速度提高了32.9%,检测精度提高1.14%。但无人机的飞行高度较低,局限于超低空域附近,所看到的视场角受限。
本文详细内容请下载:http://www.chinaaet.com/resource/share/2000004602。
作者信息:
刘 彤1,2,3,杨德振1,4,宋嘉乐1,2,3,傅瑞罡3,何佳凯1
(1.华北光电技术研究所 机载探测中心,北京100015;2.中国电子科技集团公司电子科学研究院,北京100015;
3.国防科技大学 电子科学学院ATR重点实验室,湖南 长沙410073;
4.北京真空电子技术研究所 微波电真空器件国家重点实验室,北京100015)