基于轻量化一维卷积神经网络的弹道目标识别方法

专利2024-10-18  59



1.本发明涉及弹道目标识别技术领域,特别涉及一种基于轻量化一维卷积神经网络的弹道目标识别方法。


背景技术:

2.精确高效的弹道目标识别是导弹防御系统的关键问题,尤其是如何从众多的诱饵目标中快速有效的识别出弹头。针对弹道目标识别问题,近年来国内外研究人员主要结合弹道目标的红外辐射、微多普勒、雷达散射截面积和雷达高分辨距离像(highresolutionrange profile,hrrp)等特征开展研究。其中,hrrp包含目标丰富的结构信息且容易获取,已成为雷达自动目标识别问题的研究热点。
3.近年来,机器学习技术因其可以进行高效的自动特征提取,已被广泛地应用到hrrp识别问题中,其中具有代表性的方法包括k近邻算法、支持向量机、决策树和线性判别分析等算法,但由于这些算法提取的都是浅层次特征,在识别效果、算法的鲁棒性和泛化性能方面尚需进一步改进。和浅层的机器学习技术相比,深度学习可以提取数据深层次特征,深度学习的主要模型如自编码器、多层感知器、极限学习机、循环神经网络和卷积神经网络(convolutional neural network,cnn)等已被广泛应用到hrrp识别研究中。其中一维cnn(one-dimensional cnn,1dcnn)是一类可以实现自动提取深层次特征的目标识别方法,相比其它深度神经网络算法具有较好的局部特征感知能力和鲁棒性,但是标准的1dcnn是一种类似“全连接”的神经网络,即前一层的输出特征图与当前卷积层的各个卷积核都要进行计算,存在着计算复杂度较高的问题,不利于弹道目标的快速识别。
4.本文开展了基于轻量化一维卷积神经网络的弹道目标识别方法研究,提出了基于分组融合一维卷积神经网络(group fusion 1dcnn,gf-1dcnn)的弹道目标识别方法。针对标准一维卷积神经网络存在的高计算复杂度问题,如图1所示,本文提出了新的轻量化卷积——分组融合卷积,首先将标准一维卷积和输入特征图平均拆分成多个组,各个卷积核只与同组内的输入特征图进行卷积运算,避免了使用全连接结构带来的高计算复杂度和过多的参数量。将标准一维卷积简单替换为分组卷积会造成识别效果相应降低,这主要是各组之间的特征信息没有有效的流通造成的,因此在分组卷积之后构建了线性融合层实现各组特征的有效流通。另外,在gf-dcnn的训练方面,针对传统梯度下降训练算法未考虑梯度短时变化问题,借助diffgrad算法思想,引入表征梯度短时变化的abssig函数调节学习率,有效提升了模型识别正确率。


技术实现要素:

5.针对上述存在的问题,本发明提出了一种基于轻量化一维卷积神经网络的弹道目标识别方法,提出了分组融合一维卷积神经网络(group fusion1dcnn,gf-1dcnn)用于提高目标的识别正确率。
6.为了实现上述目的,本发明所采用的技术方案如下:
7.一种基于轻量化一维卷积神经网络的弹道目标识别方法,其特征在于,包括以下步骤:
8.步骤1:使用高分辨雷达对q类弹道目标进行扫描,并获取q类目标的高分辨雷达回波,并从q类目标的高分辨雷达回波中获取高分辨距离成像数据,构成q类弹道目标的高分辨一维距离像数据集;
9.步骤2:将得到的高分辨一维距离像数据集划分为训练样本集和测试样本集,其中q为大于0的正整数,将高分辨一维距离像样本标记为x
(0)

10.步骤3:构建基于分组融合的一维卷积神经网络,使用训练样本集训练基于分组融合的一维卷积神经网络,得到训练好的基于分组融合的一维卷积神经网络;
11.步骤4:使用测试样本集对训练好的基于分组融合的一维卷积神经网络进行目标识别,得到基于分组融合的一维卷积神经网络的目标识别结果。
12.进一步地,步骤3构建的基于分组融合的一维卷积神经网络包括依次连接的输入层、若干个交替连接的卷积模块、平坦层以及softmax分类器;
13.输入层用于将获取到的一维高分辨距离像数据输入到卷积模块;
14.卷积模块,用于对一维高分辨距离像数据进行特征提取;
15.平坦层,用于将最后一个卷积模块的输出重新排列为一个一维的向量;
16.softmax分类器,用于进行特征分类输出识别结果。
17.进一步地,每个所述卷积模块均包括依次连接的一维卷积层、批归一化层、非线性激活层和池化层;
18.一维卷积层,用于使用固定大小窗口的卷积核对每个通道的输入特征都进行卷积运算来提取特征;
19.批归一化层,用于对每个批次输入的样本特征进行归一化处理,将一维卷积层的输出x=(x
(1)
,x
(2)
,...,x
(d)
)的每一维输出归一化为:
[0020][0021]
其中,d为维度;e(
·
)和var(
·
)分别表示求期望和标准差;
[0022]
非线性激活层,使用mish函数作为非线性激活函数,用于增加模型对特征的非线性拟合能力,所述mish函数为:
[0023]
mish(x)=x
·
tanh(ln(1+e
x
))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0024]
池化层,用于通过最大池化以一定步长的方式滑动地提取一定窗口内特征图的最大值,进行特征降维。
[0025]
进一步地,所述一维卷积层具体为一维分组融合卷积,其将输入特征图x
(l)
和一维卷积的多通道输入用张量w
(l)
按照通道的空间顺序分成ω
(l)
个组,其中各个卷积核仅与同组内的输入特征图x
(l)
进行卷积运算,并在分组卷积后连接逐点卷积,对各个通道的特征进行线性融合。
[0026]
进一步地,所述分组卷积的输出特征图计算公式为:
[0027][0028]
其中,mod(k,ω
(l)
)表示k除以ω
(l)
的余数,ceil(
·
)表示向上取整,表示经分组卷积运算之后产生的所有特征图。
[0029]
进一步地,所述使用逐点卷积进行特征线性融合的公式为:
[0030][0031]
其中,为分组融合卷积层的最终输出特征图,为分组融合卷积层的最终输出特征图,和分别表示逐点卷积核权重参数和偏置参数。
[0032]
进一步地,步骤3所述的网络训练过程包括:
[0033]
步骤31:将所述训练样本集随机划分为t=ceil(n
train
/b)小批次,并在第t(t∈{1,2,...,t})个小批次数据集上构建交叉熵损失函数为:
[0034][0035]
其中,表示第t个小批次的训练样本集,θ为所有网络中所有可训练参数,p(y=q|x;θ)为softmax分类器的第q个输出,表示对于输入特征x的预测为第q个类别的概率,q为弹道目标类别总数;
[0036]
步骤32:基于交叉熵损失函数,计算反向传播梯度g
t

[0037][0038]
其中,表示求偏导符号,θ
t
表示第t次迭代时的训练参数;
[0039]
步骤33:通过adam算法的迭代公式进行迭代,对于第t次迭代,计算梯度g
t
的一阶矩估计m
t
和二阶矩估计u
t
为:
[0040]mt
=β1m
t-1
+(1-β1)g
t
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(17)
[0041]ut
=β2u
t-1
+(1-β2)g
t2
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(18)
[0042]
其中,β1,β2∈[0,1]分别是m
t
和u
t
的衰减常数;
[0043]
步骤34:分别对一阶矩估计m
t
和二阶矩估计u
t
的偏差进行修正:
[0044][0045][0046]
步骤35:利用abssig函数计算梯度g
t
短时变化x
t
为:
[0047]
x
t
=abssig(δg
t
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(22)
[0048]
其中,δg
t
=g
t-g
t-1

[0049]
步骤36:根据梯度的短时变化x
t
动态更新学习率,更新迭代公式,并通过迭代公式进行网络参数更新,所述迭代公式更新为:
[0050][0051]
其中,α为学习率,ε是一个接近为0的小数,

表示向量对应元素相乘,θ
t+1
为更新后的参数。
[0052]
本发明的有益效果是:
[0053]
第一,本发明提出的gf-1dcnn与标准的1dcnn相比,在大幅度降低模型参数总量、浮点运算量、乘积累加运算量和模型测试过程中运行所需的内存占用量的同时,保证了模型具有较高的识别正确率,有利于减少导弹防御系统的工作负载并提高识别速度;
[0054]
第二,本发明使用改进梯度下降优化算法训练gf-1dcnn可以有效提高目标的识别正确率,同时改进的优化算法对于gf-1dcnn的训练优化效果比对于1dcnn的优化效果更加明显,利于导弹防御系统快速获取可靠的识别模型;
[0055]
第三,通过仿真实验将gf-1dcnn与其他的神经网络算法对比,本发明具有更高的整体识别正确率,尤其是对弹头识别的召回率最高。较高的召回率在一定程度上可以减少己方损失,利于导弹防御系统提高导弹拦截率。
附图说明
[0056]
图1为基于gf-1dcnn的弹道目标识别方法的整体流程图;
[0057]
图2为gf-1dcnn网络结构图;
[0058]
图3a-图3c为分组卷积示意图,其中的图3a-图3c分别为ω=1、ω=2和ω=4时的分组卷积结构;
[0059]
图4为abssig函数处理输入值x的变化曲线图;
[0060]
图5a-图5e为仿真目标物理特征,其中图5a-图5e分别为弹头、球形诱饵、母舱、高仿诱饵和简单诱饵;
[0061]
图6a-图6c为不同优化器的对比实验,其中图6a-图6c分别为gf-1dcnn、g-1dcnn和1dcnn;
[0062]
图7a-图7d为不同类型网络的训练曲线,其中图7a-图7d分别为训练集识别正确率变化曲线、测试集识别正确率变化曲线、训练集损失函数变化曲线和测试集损失函数变化曲线。
具体实施方式
[0063]
为了使本领域的普通技术人员能更好的理解本发明的技术方案,下面结合附图和实施例对本发明的技术方案做进一步的描述。
[0064]
本发明提出的基于分组融合一维卷积神经网络(gf-1dcnn)的弹道目标识别方法如附图1所示,从图中可知,本方法分为训练阶段和测试阶段。在训练阶段中,将弹道目标的一维高分辨距离像(1d-hrrp)样本数据传入gf-1dcnn网络中,将softmax分类器的输出与对应的标签传入交叉熵损失函数,利用随机梯度下降算法更新gf-1dcnn的模型参数;在测试
阶段中,将待测试的弹道目标1d-hrrp样本数据传入已训练的gf-1dcnn,通过softmax分类器获取样本的预测结果。
[0065]
一、gf-1dcnn构建
[0066]
gf-1dcnn的整体结构如附图2所示,其包含输入层、一维卷积层、批归一化层、非线性激活层、池化层、平坦层和softmax分类器。一维卷积层、批归一化层、非线性激活层和池化层组成一个卷积模块,而交替连接的多个卷积模块可以进行特征提取。平坦层的作用是将最后一个卷积模块的输出重新排列为一个一维的向量,以便将提取的特征输入softmax分类器,而softmax分类器本质上是一个使用softmax函数激活的全连接神经网络,使用最大化后验概率准则进行分类。下面对卷积各模块说明:
[0067]
(1)一维卷积层:卷积层是卷积神经网络的主要模块,其使用固定大小窗口的卷积核对输入特征进行卷积运算来提取特征,卷积层具有参数共享机制,即每个通道的特征都使用相同且大小固定的卷积核滑动地计算,有效避免了网络参数量随输入数据的维度大幅上升。多个卷积层的重叠可以实现逐层提取局部特征,因此靠前的卷积层可以提取更加局部化的特征,靠后的卷积层可以提取更加全局化的特征。如图2所示,与传统的cnn不同,本发明使用提出的轻量化分组融合卷积代替标准的一维卷积,用于实现模型复杂度的降低和性能的提升。
[0068]
(2)批归一化层:批归一化层连接在一维卷积层之后,对每个批次输入的样本特征进行归一化处理,可以加快网络的收敛速度和稳定性。bn层将卷积层的输出归一化到均值为0,标准差为1的分布。设卷积层的输出为x=(x
(1)
,x
(2)
,...,x
(d)
),维度为d,每一维的输出归一化为:
[0069][0070]
其中,e(
·
)和var(
·
)分别表示求期望和标准差,分别在训练数据集的每个小批次中进行计算;
ε
为接近0的数,用以防止分母为0。再引入超参数γ
(k)
和β
(k)
对归一化值进行缩放和平移:
[0071][0072]
(3)非线性激活层:神经网络一般都引入非线性激活函数来增加模型对特征的非线性拟合能力,本发明使用mish函数作为非线性激活函数,其公式为:
[0073]
mish(x)=x
·
tanh(ln(1+e
x
))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0074]
(4)池化层:池化一般分为最大池化和平均池化两种方法,本发明选用最大池化。最大池化按照以一定步长的方式滑动地提取一定窗口内特征图的最大值,主要起到降维的作用。
[0075]
二、一维分组融合卷积层构建
[0076]
本发明使用一维分组融合卷积代替标准的一维卷积,为了便于描述提出的一维分组融合卷积,首先引入相关符号。设卷积模块总数为l,第l(l∈{1,2,...,l})个标准一维卷积层的多通道输入用张量表示,每个通道对应一个一维特征图,d
(l)
和c
(l)
分别表示单个一维特征图的长度和一维特征图的通道数。用张量表示卷积层的输出特征图,其中d
(l+1)
和c
(l+1)
分别表示卷积之后的特征图长度和通道数,用h
(l)
表示第l个标准一维卷积层卷积核的窗口大小,用张量表示第l个标准一维卷积层卷积核的窗口大小,用张量表示该层的卷积核。卷积层的作用是将多通道输入特征图x
(l)
与该层的所有一维卷积核w
(l)
进行卷积运算,产生与卷积核数量相等的输出特征图x
(l+1)
。具体地,每个卷积核都与输入的所有特征图进行卷积运算,则该层第k(k∈{1,2,...,c
(l+1)
})个一维卷积核与x
(l)
产生的一维特征图为:
[0077][0078]
其中,运算符*表示卷积运算,表示第k个卷积核的偏置参数。考虑每层的输入的特征图首先都进行零填充,设第l层的每个输入特征图单边填充零的个数(补零数)为p
(l)
,输入特征图长度首先变成d
(l)
+2p
(l)
,即再与步长为s
(l)
的卷积核进行卷积操作,则第k个输出特征图在位置i(i∈{1,2,...,d
(l+1)
})处的值为:
[0079][0080]
其中,i∈{1,2,...,d
(l+1)
},k∈{1,2,...,c
(l+1)
}。
[0081]
由此可计算出输出特征图长度为:
[0082][0083]
其中,floor(
·
)表示向下取整;
[0084]
由公式(5)可知,标准卷积层中卷积核与输入特征图每个通道都要进行计算,如图3(a)所示,这种计算方式类似于一种“全连接”模式,因此模型的计算量非常大。为了减少模型的计算量,首先使用分组卷积代替标准卷积。将输入特征图x
(l)
和权重张量w
(l)
按照通道的空间顺序分成ω
(l)
个组,因此ω需要同时整除输入通道数c
(l)
和输出通道数c
(l+1)
。记第g(g∈{1,2,...,ω
(l)
})组的输入特征图、权重张量和输出特征图分别为})组的输入特征图、权重张量和输出特征图分别为和则则保持各个分组卷积的步幅和补零数与标准卷积相同,则分组卷积的输出特征图计算方式为:
[0085][0086]
其中,mod(k,ω
(l)
)表示k除以ω
(l)
的余数,ceil(
·
)表示向上取整,表示经分组卷积运算之后产生的所有特征图,则d
(l+1)
仍可使用公式计算。
[0087]
如图3所示,在分组卷积中,卷积运算只发生在各个组内,避免了“全连接”结构,同时标准卷积等价于ω=1时的分组卷积。但是,由于卷积运算只发生在各个组内,则组与组
之间的信息无法交流,导致模型性能降低。因此,为了增加各组之间的信息流通,将分组卷积之后连接逐点卷积,对各个通道的特征进行简单的线性融合,以增加各组特征之间的信息交流。
[0088]
用张量和分别表示逐点卷积核权重参数和偏置参数,其补零数p

(l)
=0,步长s

(l)
=1,则使用逐点卷积进行特征融合的过程为:
[0089][0090]
其中,为分组融合卷积层的最终输出特征图。x

(l+1)
与公式计算得到的标准卷积的输出维度是一致的,因此可实现对标准卷积的替换。
[0091]
三、gf-1dcnn与标准1dcnn的模型复杂度比较
[0092]
参数量是分析模型复杂度的一项重要指标,模型参数越多,训练和推理阶段所需的计算量就越大。为了比较提出的gf-1dcnn与标准1dcnn的模型复杂度,首先分别计算它们在图2所示的模型结构中同一层的参数量。对于标准cnn,其第l层的参数总量为:
[0093]
φ
std
=h
(l)
×c(l)
×c(l+1)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(9)
[0094]
对于gf-1dcnn,其第l个分组融合卷积层的参数总量包含分组卷积参数量和逐点卷积的参数量,即:
[0095][0096]
由公式和公式易知:
[0097][0098]
其中,卷积核窗口h
(l)
一般取正奇数,分组数ω
(l)
取正整数。当ω=1时,gf-1dcnn参数量比标准1dcnn的参数量增加了1/h
(l)
,当ω
(l)
增大时,尤其是在模型中分组数较大时,即h
(l)
<<ω
(l)
,h
(l)

(l)
≈0,则标准1dcnn的参数量约为gf-1dcnn参数量的h
(l)
倍。由此可见,保持其它条件不变的情况下,gf-1dcnn的分组数越大,模型的计算复杂度越小。
[0099]
四、gf-1dcnn网络训练
[0100]
gf-1dcnn网络的训练是使用数据更新网络参数的过程,首先需要构建表征神经网络输出与真实值之间的差异的损失函数。设d
train
和d
test
表示含有样本总数为n
train
和n
test
的训练数据集和测试集,二元组(x,y)∈d
train
分别表示训练集某个样本的输入特征及其对应的真实标签,y∈{1,2,...,q},q表示类别总数,则可以构建数据集d
train
上的交叉熵损失函数:
[0101][0102]
其中,θ为所有网络中所有可训练参数,p(y=q|x;θ)为softmax分类器的第q个输出,表示对于输入特征x的预测为第q个类别的概率;
[0103]
公式被称为经验风险损失函数,而神经网络的训练实质上是最小化经验风险损失
函数,即:
[0104][0105]
对于n
train
较大的数据集,由于计算机内存和算力的限制,无法将所有数据同时送入网络指导参数更新,一般使用小批量随机梯度下降(sgd)算法每次随机选取b个样本来更新网络参数,因此,整个训练数据集需随机划分为t=ceil(n
train
/b)小批次,即在第t(t∈{1,2,...,t})个小批次数据集上,交叉熵损失函数为:
[0106][0107]
使用sgd算法依次将t个小批量样本送入神经网络训练,对于第t次迭代,参数的更新公式为:
[0108]
θ
t+1
=θ
t-αg
t
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(15)
[0109]
其中,α为学习率,g
t
是损失函数关于参数θ
t
的梯度,即:
[0110][0111]
在公式中,选取合适的学习率α对训练的收敛速度有极大的影响,如果α选取过大,则可能使得网络训练在最优值附近振荡甚至远离最优值,如果选取过小,则网络训练速度缓慢。针对此问题,adam算法结合梯度的一阶矩和二阶矩估计来动态修正学习率。对于第t次迭代,则分别计算梯度g
t
的一阶矩估计m
t
和二阶矩估计u
t
为:
[0112]mt
=β1m
t-1
+(1-β1)g
t
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(17)
[0113]ut
=β2u
t-1
+(1-β2)g
t2
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(18)
[0114]
其中,β1,β2∈[0,1]分别是m
t
和u
t
的衰减常数。
[0115]
分别对m
t
和u
t
的偏差进行修正,即:
[0116][0117][0118]
adam算法的迭代公式为:
[0119][0120]
其中,ε是一个接近为0的小数,用于防止分母为0,

表示向量对应元素相乘。
[0121]
adam结合了adagrad善于处理梯度的优势和rmsprop善于处理非平稳的优势,在神经网络的训练过程中具有较广的应用。在adam基础上,diffgrad算法将梯度的局部变化引入迭代公式,该算法基于的思想是:对于较大的梯度变化参数,应当使用较大的学习率加速收敛速度,而对于较小的梯度变化参数,应当使用较小的学习率防止训练振荡甚至远离最优值。diffgrad借助abssig函数表征梯度的短时变化,即:
[0122]
x
t
=abssig(δg
t
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(22)
[0123]
其中,δg
t
=g
t-g
t-1

[0124]
如附图4所示,abssig函数可将输入值压缩到0.5到1.0之间,其定义为:
[0125][0126]
使用abssig函数根据梯度的短时变化动态调整学习率,公式的更新为:
[0127][0128]
总之,基于diffgrad的gf-1dcnn训练优化算法如算法1所示,其中acc(θ
t
;d
test
)表示模型在参数为θ
t
时测试集上的识别正确率。
[0129][0130][0131]
实施例
[0132]
为了验证本发明所提基于gf-1dcnn的弹道目标hrrp识别方法,利用电磁散射计算
中的物理光学法对弹头、高仿诱饵、简单诱饵、球形诱饵和母舱等5类弹道中段目标进行仿真,即q=5,5类弹道目标的物理参数如附图5所示。
[0133]
1、仿真参数设置
[0134]
仿真过程中的参数设置为:雷达中心频率为10ghz,极化方式为水平极化,方位角范围为0
°
~180
°
,仿真精度为0.05
°
。每类目标分别仿真得到了3601个不同方位角下的hrrp样本,每个hrrp样本的距离单元个数为256,即e=256。每类目标随机选取80%作为训练集d
train
,剩余样本作为测试集d
test

[0135]
2、仿真实验参数设置
[0136]
gf-1dcnn的参数设置为:卷积模块的个数l=4,最大池化的窗口大小设为3和步长设为1,所有卷积核的补零数p
(l)
=0,步长s
(l)
=1,除逐点卷积外,其它卷积核窗口大小h的取值范围为{1,3,5,7,9}。一维数组c=[c
(1)
,c
(2)
,...,c
(l)
]来表示不同的通道设置,为了比较所提方法在不同通道设置下的通用性,考虑5种通道设置进行实验:c1=[8,16,32,64]、c2=[16,32,64,128]、c3=[32,64,128,256]、c4=[64,128,256,512]和c5=[128,256,512,1024],按照公式指出的分组卷积的分组数越大模型的参数量越小的结论,5种通道设置下分组卷积的分组数设置为最大,则模型结构c1,c2,c3,c4和c5对应的各层分组数分别为[1,8,16,32],[1,16,32,64],[1,32,64,128],[1,64,128,256]和[1,128,256,512]。为了对分组融合卷积进行消融实验,在对标准1dcnn和gf-1dcnn进行对比实验的基础上,将gf-1dcnn中用于分组卷积输出特征进行融合的逐点卷积剔除进行实验,并将剔除逐点卷积的gf-1dcnn简称为g-1dcnn。另外,在模型训练过程中,设置训练周期t=200,小批次样本数b=64,学习率α=10-3
。本发明使用编程语言python 3.8和开源深度学习框架pytorch 1.8.2lts构建和训练深度学习模型,并使用cuda11.1加速网络训练。
[0137]
3、不同优化器的对比实验
[0138]
为了验证本发明使用的diffgrad优化器对神经网络的训练优化效果,在保证相同超参数设置前提下将diffgrad与其它优化器进行对比实验,对比的优化器包括adam、adabound、adagrad、asgd、rprop和标准的sgd算法。图6是使用上述7种优化器分别训练gf-1dcnn、g-1dcnn和1dcnn时测试集识别正确率的变化曲线,1dcnn、g-1dcnn和1dcnn的通道设置为c5,卷积核窗口大小h=5。由图6可知,diffgrad在训练gf-1dcnn和g-1dcnn时相比adam算法具有更加明显的提升效果,在训练1dcnn时与adam算法相差不大,但是具有更高的识别正确率。总体而言,diffgrad相比其它优化器具有更快的收敛速度和更高的测试集识别正确率水平渐近线。上述实验说明,使用梯度的局部变化来调整学习率对于提升识别效果和加快收敛速度具有一定促进作用。
[0139]
4、与标准卷积的对比实验
[0140]
为了验证不同超参数对模型性能的影响并进行消融实验,将1dcnn,g-1dcnn和gf-1dcnn三种类型网络在不同卷积核窗口大小和通道设置时进行多次实验。表1是1dcnn,g-1dcnn和gf-1dcnn三种类型网络在不同卷积核窗口大小和通道设置时测试集d test
的识别正确率,由表1可得如下结论:
[0141]
1)在同一个网络类型中,当卷积核尺寸h保持不变时,随着网络通道数c1变到c6,1dcnn的识别正确率大体上呈现出先增加后减小的趋势,g-1dcnn和gf-1dcnn的识别正确率大体呈现出上升的趋势。说明通道数的增加在一定程度上会增加1dcnn的识别效果,但是到
达一定程度之后会使得1dcnn发生过拟合导致识别性能下降,而g-1dcnn和gf-1dcnn可以在一定程度上缓解通道数增加导致的过拟合现象。
[0142]
2)在同一个网络类型中,当网络通道设置保持不变时,随着卷积核尺寸h从1增加到9,1dcnn在通道数设置为c1~c4时识别正确率呈现出先上升后下降的趋势,在c5~c6时呈现逐渐增大的趋势,g-1dcnn在通道数设置为c1~c4时识别正确率呈现出逐渐上升的趋势,在c5~c6时呈现先增大后减小的趋势,gf-1dcnn在通道数设置为c1~c2时识别正确率呈现出逐渐上升的趋势,而在c3~c6时呈现先增大后减小的趋势。
[0143]
3)在相同卷积核尺寸和卷积层通道数设置时,三种不同类型网络的识别正确率进行比较,可以发现,大多数情况下,三种模型识别正确率高低顺序为:gf-1dcnn>1dcnn>g-1dcnn,说明简单地使用分组卷积代替标准卷积会使得识别正确率下降,但是对分组卷积增加了逐点卷积对分组卷积的输出特征进行简单的线性融合之后会提高识别正确率。由此证明了本文提出的将分组卷积与逐点卷积相结合代替标准卷积的有效性。
[0144]
4)对于3种模型的最优平均识别正确率而言,1dcnn在c4和h=5时平均识别正确率获得最优值,达到95.97%;g-1dcnn在c5和h=5时平均识别正确率获得最优值,达到95.94%;gf-1dcnn在c5和h=3时平均识别正确率获得最优值,达到97.00%。
[0145]
表1不同类型1dcnn的测试集平均整体识别正确率(%)
[0146][0147]
*粗体表示每一行数据的最大值
[0148]
为了对不同类型1dcnn的模型复杂度进行分析,使用4个指标分别进行评估:参数总量(单位:个)、浮点运算量(单位:flops)、乘积累加运算量(单位:macs)和模型测试过程中运行所需的内存占用量(单位:b),结果如表2~表5所示。由表2~表5可知,每种类型的模型随着通道总数和卷积核尺寸的增加而增加,但在相同的卷积层通道设置和卷积核尺寸时,不同网络类型的参数总量、浮点运算量、内存占用量和乘积累加运算量由由大到小的顺序为1dcnn>gf-1dcnn>g-1dcnn。因此,本发明提出的gf-1dcnn的计算复杂度远小于1dcnn,且识别正确率优于1dcnn和g-1dcnn,进一步说明本方法的优势。
[0149]
表2不同类型1dcnn的参数总量(
×
103)
[0150][0151][0152]
表3不同类型1dcnn的浮点运算量(flops)
[0153][0154]
表4不同类型1dcnn的内存占用量(
×
106b)
[0155][0156]
表5不同类型1dcnn的乘积累加运算量(
×
106macs)
[0157][0158][0159]
图7是1dcnn和gf-1dcnn分别在各自最优的通道数配置和不同卷积核尺寸时模型的训练曲线,1dcnn的最优通道数设置为c4,gf-1dcnn的最优通道数设置是c5。由图7可知,不同设置下的模型大约在训练30个周期之后性能趋于稳定,在相同的卷积核尺寸时,gf-1dcnn的识别正确率变化曲线具有更高的水平渐近线,在h=3时,gf-1dcnn在训练集和测试集上的损失函数和识别正确率变化曲线都要明显优于其它设置时的变化曲线。由此可见,gf-1dcnn在通道数设置为c5和h=3具有明显的训练优势。
[0160]
5、与其它基于神经网络方法的对比实验
[0161]
为了进一步将gf-1dcnn与其它基于深度学习的hrrp识别方法进行比较,使用pytorch构建栈式降噪稀疏自动编码器(stacked denoising sparseae,sdsae)、双向lstm(bidirectional lstm,bi-lstm)和双向gru(bidirectional gru,bi-gru)进行对比实验。同时,为了更加精确地对测试集每个目标的识别效果进行分析,分别计算各个hrrp识别方法对每个目标的精确率f
p
,召回率fr和fm,同时依然使用测试集整体识别正确率对整体的识别效果进行评价。精确率f
p
,召回率fr和fm的计算方式由公式给出,f
p
表示被识别为正例的样本中实际为正例的比例,fr表示正确识别为正例的样本占全部实际为正例的样本的比例,fm是综合考虑精确率和召回率的指标,是对f
p
和fr的加权调和平均。
[0162][0163]
其中,tp是正类判定为正类的样本数,fp为负类判定为正类的样本数,fn为正类判定为负类的样本数。
[0164]
表6为不同基于深度神经网络hrrp识别方法识别结果。由表6可知,不同识别方法对于各个弹道目标的识别效果不尽相同,其中,各个方法对球形诱饵的精确率和召回率都是100%,从图5各个目标的物理特征来看,球形诱饵和其它目标的可区分性比较高,因此识别效果较好。sdsae、bi-lstm、bi-gru、1dcnn和g-1dcnn对于弹头识别的召回率相对较低,而gf-1dcnn对弹头识别的召回率最高,虽然gf-1dcnn对弹头识别的精确率相对比bi-lstm、bi-gru、1dcnn和g-1dcnn略低,这对于反导任务来说固然会增加一定的虚警率,但是更高的
召回率在一定程度上可以减少己方损失。另外,gf-1dcnn对于母仓和简单诱饵都有比较好的识别效果,同时对于整体样本都有比较好的识别正确率。
[0165]
表6不同hrrp识别方法的识别结果
[0166][0167][0168]
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

技术特征:
1.基于轻量化一维卷积神经网络的弹道目标识别方法,其特征在于,包括以下步骤:步骤1:使用高分辨雷达对q类弹道目标进行扫描,并获取q类目标的高分辨雷达回波,并从q类目标的高分辨雷达回波中获取高分辨距离成像数据,构成q类弹道目标的高分辨一维距离像数据集;步骤2:将得到的高分辨一维距离像数据集划分为训练样本集和测试样本集,其中q为大于0的正整数,将高分辨一维距离像样本标记为x
(0)
;步骤3:构建基于分组融合的一维卷积神经网络,使用训练样本集训练基于分组融合的一维卷积神经网络,得到训练好的基于分组融合的一维卷积神经网络;步骤4:使用测试样本集对训练好的基于分组融合的一维卷积神经网络进行目标识别,得到基于分组融合的一维卷积神经网络的目标识别结果。2.如权利要求1所述的基于轻量化一维卷积神经网络的弹道目标识别方法,其特征在于,步骤3构建的基于分组融合的一维卷积神经网络包括依次连接的输入层、若干个交替连接的卷积模块、平坦层以及softmax分类器;输入层用于将获取到的一维高分辨距离像数据输入到卷积模块;卷积模块,用于对一维高分辨距离像数据进行特征提取;平坦层,用于将最后一个卷积模块的输出重新排列为一个一维的向量;softmax分类器,用于进行特征分类输出识别结果。3.如权利要求2所述的基于轻量化一维卷积神经网络的弹道目标识别方法,其特征在于,每个所述卷积模块均包括依次连接的一维卷积层、批归一化层、非线性激活层和池化层;一维卷积层,用于使用固定大小窗口的卷积核对每个通道的输入特征都进行卷积运算来提取特征;批归一化层,用于对每个批次输入的样本特征进行归一化处理,将一维卷积层的输出x=(x
(1)
,x
(2)
,...,x
(d)
)的每一维输出归一化为:其中,d为维度;e(
·
)和var(
·
)分别表示求期望和标准差;非线性激活层,使用mish函数作为非线性激活函数,用于增加模型对特征的非线性拟合能力,所述mish函数为:mish(x)=x
·
tanh(ln(1+e
x
))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)池化层,用于通过最大池化以一定步长的方式滑动地提取一定窗口内特征图的最大值,进行特征降维。4.如权利要求3所述的基于轻量化一维卷积神经网络的弹道目标识别方法,其特征在于,所述一维卷积层为一维分组融合卷积,其将输入特征图x
(l)
和一维卷积的多通道输入用张量w
(l)
按照通道的空间顺序分成ω
(l)
个组,其各个卷积核仅与同组内的输入特征图x
(l)
进行卷积运算得到输出特征,并在分组卷积后连接逐点卷积,对各个通道的输出特征进行线性融合。5.如权利要求4所述的基于轻量化一维卷积神经网络的弹道目标识别方法,其特征在
于,所述分组卷积的输出特征计算公式为:其中,mod(k,ω
(l)
)表示k除以ω
(l)
的余数,ceil(
·
)表示向上取整,表示经分组卷积运算之后产生的所有特征图。6.如权利要求5所述的基于轻量化一维卷积神经网络的弹道目标识别方法,其特征在于,所述使用逐点卷积对特征进行线性融合的公式为:其中,为分组融合卷积层的最终输出特征图,为分组融合卷积层的最终输出特征图,和分别表示逐点卷积核权重参数和偏置参数。7.如权利要求6所述的基于轻量化一维卷积神经网络的弹道目标识别方法,其特征在于,步骤3所述的网络训练过程包括:步骤31:将所述训练样本集随机划分为t=ceil(n
train
/b)小批次,并在第t(t∈{1,2,...,t})个小批次数据集上构建交叉熵损失函数为:其中,表示第t个小批次的训练样本集,θ为所有网络中所有可训练参数,p(y=q|x;θ)为softmax分类器的第q个输出,表示对于输入特征x的预测为第q个类别的概率,q为弹道目标类别总数;步骤32:基于交叉熵损失函数,计算反向传播梯度g
t
:其中,表示求偏导符号,θ
t
表示第t次迭代时的训练参数;步骤33:通过adam算法的迭代公式进行迭代,对于第t次迭代,计算梯度g
t
的一阶矩估计m
t
和二阶矩估计u
t
为:m
t
=β1m
t-1
+(1-β1)g
t
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(17)其中,β1,β2∈[0,1]分别是m
t
和u
t
的衰减常数;步骤34:分别对一阶矩估计m
t
和二阶矩估计u
t
的偏差进行修正:
步骤35:利用abssig函数计算梯度g
t
短时变化x
t
为:x
t
=abssig(δg
t
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(22)其中,δg
t
=g
t-g
t-1
;步骤36:根据梯度的短时变化x
t
动态更新学习率,更新迭代公式,并通过迭代公式进行网络参数更新,所述迭代公式更新为:其中,α为学习率,ε是一个接近为0的小数,

表示向量对应元素相乘,θ
t+1
为更新后的参数。

技术总结
本发明公开了一种基于轻量化一维卷积神经网络的弹道目标识别方法,针对标准一维卷积神经网络存在的高计算复杂度问题,提出了分组融合卷积(GF-DCNN),首先将标准一维卷积和输入特征图平均拆分成多个组,各个卷积核只与同组内的输入特征图进行卷积运算,避免了使用全连接结构带来的高计算复杂度和过多的参数量。将标准一维卷积简单替换为分组卷积会造成识别效果相应降低,这主要是各组之间的特征信息没有有效的流通造成的,因此在分组卷积之后构建了线性融合层实现各组特征的有效流通。另外,在GF-DCNN的训练方面,针对传统梯度下降训练算法未考虑梯度短时变化问题,借助diffGrad算法思想,引入表征梯度短时变化的AbsSig函数调节学习率,有效提升了模型识别正确率。有效提升了模型识别正确率。有效提升了模型识别正确率。


技术研发人员:王晓丹 向前 宋亚飞 来杰 李睿 雷蕾
受保护的技术使用者:中国人民解放军空军工程大学
技术研发日:2022.07.01
技术公布日:2022/11/1
转载请注明原文地址: https://tieba.8miu.com/read-10065.html

最新回复(0)