一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法

专利2024-10-13  58


l,yu y z,et al.radar hrrp target recognition model based on a stacked cnnbi-rnn with attention mechanism[j].ieee transactions on geoscience and remote sensing,2022,60.”提出了基于卷积模块、注意力模块和双向循环神经网络(bidirectional recurrent neural network,bi-rnn)模块的嵌套神经网络,其中注意力模块用于增强卷积模块提取hrrp包络特征和局部特征的能力,而bi-rnn可有效提取hrrp中包含的丰富物理特征;文献“lin c l,chen t p,fan k c,et al.radar high-resolution range profile ship recognition using two-channel convolutional neural networks concatenated with bidirectional long short-term memory[j].remote sensing,2021,13(7).”提出了基于2通道卷积神经网络和双向lstm的hrrp识别网络,有效提高了船只hrrp的识别效果;为了增强cnn中各通道的特征提取能力,文献“xiang q,wang x,songy,et al.one-dimensional convolutional neural networks for high-resolution range profile recognition via adaptively feature recalibrating and automatically channel pruning[j].international journal of intelligent systems,2021,36(1):332-61.”使用高效的apr注意力模块自适应地增强cnn中对识别任务有益的通道,削弱有害或者冗余通道,并使用改进的人工蜂群算法(artificial bee colony,abc)实现对冗余通道的剪枝,针对代价敏感问题,进一步提出了代价敏感剪枝cnn
[9]
以降低弹道目标整体误识别代价。
[0005]
上述基于cnn的hrrp识别方法虽然解决了特定条件下的hrrp识别问题,但仍然存在两个方面的不足:
[0006]
上述方法皆采用标准cnn作为特征提取的主要模块,但是标准cnn具有较高的计算复杂度。如图1所示,在标准卷积层中,输入特征图和卷积核以全连接形式进行高密度地计算,存在着大量的参数冗余和计算复杂度。虽然文献“向前,王晓丹,宋亚飞,et al.基于代价敏感剪枝卷积神经网络的弹道目标识别[j].北京航空航天大学学报,2021,47(11):2387-98.”和文献“xiang q,wang x,song y,et al.one-dimensional convolutional neural networks for high-resolution range profile recognition via adaptively feature recalibrating and automatically channel pruning[j].international journal of intelligent systems,2021,36(1):332-61.”结合了剪枝方法减少了cnn的计算复杂度,但模型本质上仍是标准cnn,因此需要进一步研究使用参数量更少的卷积核代替标准卷积核的方法。
[0007]
上述基于cnn的hrrp识别方法缺乏针对有限样本条件下的hrrp识别问题研究。例如,在实际场景中,弹道目标识别是一个非合作目标识别问题,该问题存在的核心难点之一是能获取的弹道目标样本数量较少,但上述基于cnn的hrrp识别方法使用的都是完备的数据集,所提出的方法在有限样本条件下尚缺乏验证。


技术实现要素:

[0008]
针对上述存在的在问题,本发明使用深度可分离融合卷积代替标准卷积,降低深度神经网络的模型复杂度,同时改进交叉熵损失函数,使得同种类别样本的相似性降低,不同类别样本的差异度增大,从而改善有限样本条件下的弹道目标识别问题。通过仿真实验证明了本发明算法的有效性。
[0009]
为了实现上述目的,本发明所采用的技术方案如下:
[0010]
一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,包括:
[0011]
步骤1:从高分辨雷达中获取含有q个种类弹道目标hrrp样本,随机挑选总样本中的80%构成训练集,将其余样本作为测试集,设置训练的周期总数为ω;
[0012]
步骤2:构建包括输入层、l个卷积模块、平坦层和softmax分类器的dsfcnn网络,其中卷积模块依次包括:一维深度可分离融合卷积层、批量归一化层、非线性激活层和池化层组成,设各个卷积模块的通道数分别是c
(1)
,c
(2)
,

,c
(l)
,使用一维数组c=[c
(1)
,c
(2)
,...,c
(l)
]表示网络的模型结构;
[0013]
步骤3:使用kaiming初始化方法对步骤2的dsfcnn网络的可训练参数θ初始化,即将θ初始化为接近0的θ0,使得其中u表示均匀分布,n
in
为参数所在卷积层的输入通道数;
[0014]
步骤4:构建有限样本学习损失函数,在步骤3初始化后,将步骤1训练集中的弹道目标hrrp样本输入到dsfcnn网络中,将每个批次训练样本的softmax分类器的输出和真实标签带入有限样本学习损失函数,计算每个批次数据的损失函数值;
[0015]
步骤5:对步骤4中可训练参数为θ0时的有限样本学习损失函数进行求导,将有限样本学习损失函数的导数带入随机梯度下降算法公式,使用随机梯度下降算法完成1个批次的可训练参数更新,得到θ1;
[0016]
步骤6:令θ0=θ1,重复步骤4和步骤5,逐次对t个批次的数据进行训练,完成一个周期的训练,最终得到参数θ
t
,然后对测试数据集中的样本进行预测,并对预测结果进行统计;
[0017]
步骤7:令θ0=θ
t
,重复步骤6直至完成ω个周期的训练,并保存测试集识别正确率最高时的模型参数。
[0018]
优选的,所述步骤2输入层的操作为:
[0019]
对输入的弹道目标hrrp每个距离单元的信号强度归一化到[0,1]的范围内。
[0020]
优选的,所述步骤2的一维深度可分离融合卷积层依次由三个有序的模块组成:用于通道变换的逐点卷积核、mish函数激活的深度卷积核和用于特征融合的逐点卷积核,具体的操作为:
[0021]
步骤1.1:第一个逐点卷积核将经过输入层的输入特征图进行通道变换;
[0022]
步骤1.2:对步骤2.1通道变换得到的特征图使用深度卷积进行进一步处理,对特征图进行补零操作,深度卷积使用mish函数激活;
[0023]
步骤2.3:第二个逐点卷积对步骤2.2深度卷积得到特征图进行融合变换。
[0024]
优选的,所述非线性激活层的操作为:使用非线性激活函数对一维深度可分离融合卷积层的输出进行激活,dsfcnn模型结构中所有非线性激活函数均采用mish函数。
[0025]
优选的,所述池化层的操作为:
[0026]
对于步骤2.3中第l个一维深度可分离融合卷积层的第k个输出特征图进行最大池化操作,最大池化后特征图的个数不变。
[0027]
优选的,所述平坦层和分类器的操作为:
[0028]
最后一个卷积模块的输出经过平坦层的拉平操作,所有特征图排列为一个一维的
向量作为softmax分类器的输入,softmax分类器的神经元个数与待分类目标的类别总数相等,对于每个弹道目标hrrp样本(x
(k)
,y
(k)
),x
(k)
和y
(k)
分别表示弹道目标hrrp样本数据和对应真实标签,softmax分类器第q个神经元的输出表示的是将样本x
(k)
判断为第q个类别的概率。
[0029]
优选的,所述步骤4具体为:
[0030]
步骤4.1:在每个小批次样本数据集m
t
,建立损失函数公式;
[0031]
步骤4.2:对于步骤3.1中的小批次数据集m
t
,随机采样一个锚点样本及其对应的正例样本和负例样本,建立小批次数据集m
t
上的triplet损失函数;
[0032]
步骤4.3:在有限样本识别问题中,综合步骤4.1和步骤4.2,建立最终的有限样本学习损失函数。
[0033]
与现有技术相比,本发明的有益效果是:
[0034]
1.针对一维标准卷积计算复杂度较高的问题,使用参数量更少的深度可分离融合卷积代替标准卷积,提出深度可分离融合卷积神经网络(dsfcnn)。dsfcnn的卷积层包含逐点卷积-深度卷积-逐点卷积结构,其中,第一个逐点卷积进行特征图通道变换,第二个逐点卷积实现各个通道的特征融合,深度卷积打破了标准卷积的“全连接”结构,具有更少的参数总量和计算复杂度。实验结果表明,提出的dsfcnn在大多数条件下提高识别效果的同时降低参数量,且在其它条件保持不变的情况下卷积核越大参数量减少的比例越明显。
[0035]
2.针对有限样本场景下的弹道目标hrrp识别问题,研究了如何提取具有更高的可区分性特征的方法,提出了新的损失函数用于有限样本条件下的深度可分离卷积神经网络的训练。本文在标准交叉熵函数中引入可以表示类内距离和类间距离的惩罚项,使得网络在训练过程中不仅考虑整体样本的拟合程度,还考虑各类目标之间的区分度。该损失函数实现了传统监督学习和度量学习相结合,增加了模型在有限样本条件下的识别效果
[0036]
3.在五类弹道目标hrrp数据集上的实验表明,dsfcnn与标准cnn相比,模型参数量更少,同时具有更高的识别正确率。通过在不同程度的有限样本数据集上的训练结果表明,模型在有限样本条件下明显高于标准的卷积神经网络。因此,本文的方法同时实现模型计算复杂度的下降、识别正确率的提升以及较高有限样本学习能力等三个目标。
附图说明
[0037]
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
[0038]
在附图中:
[0039]
图1为本发明的方法流程图;
[0040]
图2为本发明dsfcnn模型结构示意图;
[0041]
图3为本发明仿真目标物理特征图;
[0042]
图4为dsfcnn和标准cnn在有限样本条件下的识别结果。
具体实施方式
[0043]
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
[0044]
实施例:
[0045]
参照附图1-4所示,一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,包括:
[0046]
步骤1:从高分辨雷达中获取含有q个种类弹道目标hrrp样本,随机挑选总样本中的80%构成训练集,将其余样本作为测试集,设训练集x
(k)
和y
(k)
分别表示第k个弹道目标hrrp样本及其标签,每个小批次样本数量为b,样本总数为n,则训练集被随机划分成t=ceil(n/b)个小批次,其中ceil(
·
)表示向上取整数,即记弹道目标hrrp的距离单元个数为e,设置训练的周期总数为ω;
[0047]
步骤2:构建包括输入层、l个卷积模块、平坦层和softmax分类器的dsfcnn网络,其中卷积模块依次包括:一维深度可分离融合卷积层、批量归一化层、非线性激活层和池化层组成,设各个卷积模块的通道数分别是c
(1)
,c
(2)
,

,c
(l)
,使用一维数组c=[c
(1)
,c
(2)
,...,c
(l)
]表示网络的模型结构。
[0048]
进一步的,步骤2输入层的操作为:
[0049]
利用公式对弹道目标hrrp每个距离单元的信号强度归一化到[0,1]的范围内:
[0050][0051]
其中,表示第k个弹道目标hrrp样本的第j个距离单元的信号强度,e为距离单元个数。
[0052]
一维卷积层将输入数据和窗口大小固定的卷积核进行卷积运算以自动提取特征,一般卷积核的尺度远远小于输入数据的大小,因此卷积核以一定步长在输入数据上移动,每步使用相同的卷积核实现了权值共享。
[0053]
进一步的,步骤2一维深度可分离融合卷积层依次由三个有序的模块组成:用于通道变换的逐点卷积核、mish函数激活的深度卷积核和用于特征融合的逐点卷积核。用表示第l(l∈{1,2,...,l})个一维深度可分离融合卷积层的多通道输入,表示实正整数空间,d
(l)
和c
(l)
分别表示特征图的长度和通道数。一维深度可分离融合卷积层将多通道输入x
(l)
转换为多通道输出其中,d
(l+1)
和c
(l+1)
分别表示卷积之后的特征图x
(l+1)
长度和通道数。由于第一个一维深度可分离融合卷积层输入的是弹道目标hrrp原始数据,只有一个通道,即c
(1)
=1,则记一维深度可分离融合卷积层的输入层输入的特征图为其中d
(1)
=e,则由于dsfcnn对所有的hrrp样本都进行相同的操作,因此特征图符号x
(l)
(l∈{1,2,...,l})中不使用k标注样本序号。
[0054]
一维深度可分离融合卷积层的具体操作为:
[0055]
步骤2.1:第一个逐点卷积核将输入特征图x
(l)
进行通道变换,采用公式将通道数为c
(l)
的x
(l)
变为通道数为c
(l+1)
的x

(l)
,即,即表示实正整数空间,张量和分别表示第一个逐点卷积核权重参数和偏置参数,其中窗口大小h

(l)
=1,补零数p

(l)
=0,步长s

(l)
=1。
[0056][0057]
其中,i∈{1,2,...,d
(l)
},k∈{1,2,...,c
(l+1)
}。
[0058]
步骤2.2:对步骤2.1通道变换得到的特征图x

(l)
使用深度卷积进行进一步处理,设深度卷积核的权重和偏置参数分别是和和产生的特征图为对特征图x

(l)
进行补零操作,则深度卷积使用mish函数激活,深度卷积运算过程为
[0059][0060]
其中,s
(l)
为深度卷积的步长,i∈{1,2,...,d
(l+1)
},k∈{1,2,...,c
(l+1)
};
[0061]
步骤2.3:第二个逐点卷积对步骤2.2深度卷积得到特征图进行融合变换。用张量和分别表示第二个逐点卷积核权重参数和偏置参数,其窗口大小h

(l)
=1,补零数p

(l)
=0,步长s

(l)
=1,则融合变换的过程用如下公式表示:
[0062][0063]
进一步的,步骤2非线性激活层的操作为:使用非线性激活函数对一维深度可分离融合卷积层的输出进行激活,dsfcnn模型结构中所有非线性激活函数均采用mish函数,表达式为:
[0064]
δ(x)=x
·
tanh(ln(1+e
x
))
ꢀꢀꢀ
(5)
[0065]
其中,tanh(
·
)为双曲正切函数,ln(
·
)为自然对数,e为自然常数,x为mish函数的输入,具体参考公式(3)。
[0066]
进一步的,由于计算机处理能力的限制,一般不是将所有数据同时送入网络中进行训练,而是分批次对所有数据进行输入。使用批归一化将卷积层的每个批次输出归一化到均值为0,标准差为1的分布,可以加速dsfcnn模型训练泛化能力,因此本发明在所有卷积层后都连接批量归一化层。
[0067]
进一步的,为了对一维卷积层的输出进行降维和去除相邻特征冗余,池化层对一维卷积层的输出进行下采样。步骤2池化层的操作为最大池化,具体过程为:
[0068]
对于步骤2.3中第l个一维深度可分离融合卷积层的第k个输出特征图x
k(l+1)
,在位置i处经最大池化后的结果为:
[0069][0070]
其中,h
*(l)
和s
*(l)
分别表示最大池化的窗口大小和步长,因此,最大池化后特征图的个数不变,特征图长度变为:
[0071][0072]
其中,floor(
·
)表示向下取整。
[0073]
进一步的,步骤2平坦层和分类器的操作为:
[0074]
最后一个卷积模块的输出x
(l)
经过平坦层的拉平操作将x
(l)
中所有特征图排列为一个一维的向量u作为softmax分类器的输入,则将第k个样本经拉平操作后softmax分类器的输入标记为u
(k)
,softmax分类器的神经元个数与待分类目标的类别总数q相等,softmax分类器的权重和偏置参数表示为θ
sm
={w
sm
,b
sm
},则softmax分类器的第j个神经元的权重和偏置参数分别标记为和对于每个弹道目标hrrp样本(x
(k)
,y
(k)
),x
(k)
和y
(k)
分别表示第k个弹道目标hrrp样本数据和对应真实标签,softmax分类器第q个神经元的输出表示的是将样本x
(k)
判断为第q个类别的概率,即
[0075][0076][0077]
其中,表示分类器前所有层提取的多维特征,θ*为除分类器之外所有特征提取层的参数,flatten(
·
)表示拉平操作,θ={θ*,θ
sm
}表示dsfcnn网络的所有可训练参数,样本x
(k)
的预测过程就是最大化后验概率的过程,即
[0078][0079]
因此,整个dsfcnn网络实现了样本空间到特征空间的一种参数为θ的映射f
θ
,即:
[0080][0081]
其中,向量表示样本x
(k)
经dsfcnn网络映射之后的输出,即嵌入特征,样本x
(k)
的真实标签y
(k)
使用其独特编码向量表示,其中:
[0082][0083]
步骤3:使用kaiming初始化方法对步骤2的dsfcnn网络的可训练参数θ初始化,即将θ初始化为接近0的θ0,使得其中u表示均匀分布,n
in
为参数
所在卷积层的输入通道数;
[0084]
步骤4:构建有限样本学习损失函数,在步骤3初始化后,将训练集中的弹道目标hrrp样本输入到dsfcnn网络中,将每个批次训练样本的softmax分类器的输出和真实标签带入有限样本学习损失函数,计算每个批次数据的损失函数值。具体为:
[0085]
步骤4.1:对每个小批次样本数据集mi,损失函数用公式表示
[0086][0087]
其中,

表示点积;e(x)表示对x求期望;1{
·
}为指示函数,即1{true}=1,1{false}=0;
[0088]
步骤4.2:对于步骤4.1中的小批次数据集m
t
,随机采样一个锚点样本及其对应的正例样本和负例样本其中则在小批次数据集m
t
上的triplet损失函数为:
[0089][0090][0091]
其中,α为一个接近于0的正小数;
[0092]
步骤4.3:在有限样本识别问题中,综合步骤4.1和步骤4.2,可得到最终的有限样本学习损失函数为:
[0093]jld
(θ;m
t
)=j
ce
(θ;m
t
)+γj
triplet
(θ;m
t
)
ꢀꢀꢀ
(16)
[0094]
其中,γ∈[0,+∞]用于调节整体样本拟合程度和类内-类间距离的学习程度。
[0095]
步骤5:对步骤4中可训练参数为θ0时的有限样本学习损失函数进行求导,将有限样本学习损失函数的导数带入随机梯度下降算法公式,使用随机梯度下降算法完成1个批次的可训练参数更新,得到θ1。
[0096]
进一步的,步骤5的可训练参数更新具体为:
[0097][0098]
对于第t(t∈{1,2,...,t})次迭代,随机梯度下降算法对dsfcnn网络的可训练参数θ的更新公式为:
[0099]
θ
t+1
=θ
t-ηg
t
ꢀꢀꢀ
(18)
[0100]
其中,η为学习率,g
t
是损失函数关于θ
t
的梯度,即:
[0101]gt


θtjld

t
;m
t
)
ꢀꢀꢀ
(19)。
[0102]
步骤6:令θ0=θ1,重复步骤4和步骤5,逐次对t个批次的数据进行训练,完成一个周
期的训练,最终得到参数θ
t
,将θ
t
代入公式对测试数据集中的样本进行预测,并对预测结果进行统计;
[0103]
步骤7:令θ0=θ
t
,重复步骤6直至完成ω个周期的训练,并保存测试集识别正确率最高时的模型参数。
[0104]
复杂度分析:
[0105]
在神经网络中,参数量是衡量计算复杂度的一个重要指标,在相同的网络架构中,参数量越大的网络往往计算复杂度较高。为了比较标准一维卷积神经网络和本发明提出的一维深度可分离卷积神经网络的计算复杂度,本发明使用参数量进行分析比较。本发明在此只考虑权重参数进行参数量的分析。
[0106]
对于标准一维卷积层,其卷积核的权重参数总量为
[0107]
φ
std
=h
(l)
×c(l)
×c(l+1)
ꢀꢀꢀ
(20)
[0108]
本发明改进的深度可分离一维卷积层分别由通道变换卷积深度卷积和融合卷积等三个部分组成,则总的权重参数量为
[0109]
φ
sds
=1
×c(l)
×c(l+1)
+h
(l)
×c(l+1)
+1
×c(l+1)
×c(l+1)
ꢀꢀꢀ
(21)
[0110]
由公式(20)和(21)可得:
[0111][0112]
其中,h
(l)
一般取值为小于d
(l)
的正奇数,c
(1)
和c
(l+1)
取正整数。
[0113]
由公式(22)可知,卷积核窗口h
(l)
越大,输入通道数越小,输出通道数越大,则一维深度可分离卷积相较于同层的一维标准卷积参数量减少得更明显。设c
(l+1)
=2c
(l)
,对于很大的c
(l)
,则
[0114]
φ
sds

std
≈3/h
(l)
,由于h
(l)
一般取正奇数,因此当h
(l)
》3时,dsfcnn相比于标准cnn的参数量下降明显。
[0115]
实验结果分析:
[0116]
实验采取如下思路:首先,为了验证本文提出的dsfcnn的有效性及相对于标准cnn的提升效果,使用标准的交叉熵损失函数j
ce
对dsfcnn和标准cnn分别进行训练,其次,为了比较提出的有限样本学习损失函数j
ld
对于dsfcnn模型的影响效果,j
ld
的超参数γ分别取0.1、0.01和0.001进行实验。
[0117]
表1为dsfcnn和标准cnn在不同超参数设置下测试集识别正确率的均值和方差。
[0118]
表1 dsfcnn和标准cnn在不同超参数设置下的测试集识别正确率(%)
[0119][0120]
由表1可得出如下结论:
[0121]
(1)在其它超参数不变的情况下,随着各卷积模块输出通道数和卷积核窗口逐渐增大,测试集的识别正确率大体呈上升趋势,卷积模块输出通道数和卷积核窗口的增大意味着参数量的提升,说明在实验范围内参数量的增加有助于提升模型的识别正确率。
[0122]
(2)使用交叉熵损失函数j
ce
对dsfcnn和标准cnn进行训练时,相同的通道数和卷积核窗口配置下dsfcnn的识别正确率明显更高,说明使用逐点卷积-深度卷积-逐点卷积的结构代替标准卷积可以有效地提高识别效果。
[0123]
(3)使用有限样本学习损失函数j
ld
代替交叉熵损失函数j
ce
训练dsfcnn,在相同的通道数和卷积核窗口配置下,识别正确率明显提高,并且在j
ld
的超参数γ从0.001增加到0.1时,识别正确率逐渐增加,有力地证明了使用类别之间的区分度对标准损失函数进行惩罚的有效性,同时表明使用有限样本学习损失函数训练的dsfcnn提取的特征更具有可区分性。
[0124]
表2为dsfcnn和标准cnn在不同超参数设置下的参数量,可以看出,dsfcnn和标准cnn的参数总量总是随着卷积模块输出通道数和卷积核窗口h
(l)
的增加而增加的,在相同的通道设置条件下,随着卷积核窗口增大,dsfcnn的参数总量的增加幅度要远小于标准cnn,例如在卷积模块输出通道数设置为c5时,标准cnn的参数总量从207.56
×
104增加到482.87
×
104,增加了(482.87-207.56)/207.56≈132.64%,而dsfcnn只增加了(211.67-210.91)/210.91≈0.36%。在相同的卷积模块输出通道数设置条件下,只有在h
(l)
=3时,dsfcnn的参数总量略大于cnn的参数总量,而在相对大的h
(l)
时,dsfcnn的参数总量显著小于cnn的参数总量。
[0125]
表2 dsfcnn在不同超参数设置下的模型参数总量(
×
104个)
[0126][0127]
综合表1和表2的结果来看,对于dsfcnn,当卷积模块输出通道数设置为c5,j
fs
的超参数γ=0.01,h
(l)
=7时,dsfcnn的识别正确率获得最优值,达到96.56
±
0.16%,参数总量为211.67
×
104,而标准cnn也在卷积模块输出通道数设置为c5和h
(l)
=7时识别正确率获得最优值,达到96.23
±
0.30%,参数总量为482.87
×
104。因此,在dsfcnn和标准cnn各自最优的超参数设置下,dsfcnn相比于标准cnn,平均识别正确率增加96.56%-96.23%=0.33%,参数总量减少(482.87-211.67)/482.87≈56.16%。
[0128]
为了分析dsfcnn在有限样本条件下的识别效果,分别在从训练数据集中随机采样部分数据来训练模型,而测试数据集保持不变。图4为训练集采样比例分别取10%,20%,30%,40%,50%,60%,70%,80%,90%和100%,j
ld
的超参数γ=0.001,卷积模块输出通道数设置c4时,测试集的识别正确率在不同的卷积核窗口大小h
(l)
下的结果,其中对于每种超参数配置都进行10次实验。从图4中可以看出,随着训练集采样比例的提高,dsfcnn和标准cnn的识别正确率都呈现上升趋势,但在相同的采样比例条件下,dsfcnn的识别正确率要优于标准cnn。另外,在较小的采样比例条件下,dsfcnn的多次实验结果变化范围相对较小,说明dsfcnn可以提取更加鲁棒的特征使得识别结果更加稳定。
[0129]
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

技术特征:
1.一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,其特征在于:包括:步骤1:从高分辨雷达中获取含有q个种类弹道目标hrrp样本,随机挑选总样本中的80%构成训练集,将其余样本作为测试集,设置训练的周期总数为ω;步骤2:构建包括输入层、l个卷积模块、平坦层和softmax分类器的dsfcnn网络,其中卷积模块依次包括:一维深度可分离融合卷积层、批量归一化层、非线性激活层和池化层组成,设各个卷积模块的通道数分别是c
(1)
,c
(2)
,

,c
(l)
,使用一维数组c=[c
(1)
,c
(2)
,...,c
(l)
]表示dsfcnn网络的模型结构;步骤3:使用kaiming初始化方法对步骤2的dsfcnn网络的可训练参数θ初始化,即将θ初始化为接近0的θ0,使得其中u表示均匀分布,n
in
为参数所在卷积层的输入通道数;步骤4:构建有限样本学习损失函数,在步骤3初始化后,将步骤1训练集中的弹道目标hrrp样本输入到dsfcnn网络中,将每个批次训练样本的softmax分类器的输出和真实标签带入有限样本学习损失函数,计算每个批次数据的损失函数值;步骤5:对步骤4中可训练参数为θ0时的有限样本学习损失函数进行求导,将有限样本学习损失函数的导数带入随机梯度下降算法公式,使用随机梯度下降算法完成1个批次的可训练参数更新,得到θ1;步骤6:令θ0=θ1,重复步骤4和步骤5,逐次对t个批次的数据进行训练,完成一个周期的训练,最终得到参数θ
t
,然后对测试数据集中的样本进行预测,并对预测结果进行统计;步骤7:令θ0=θ
t
,重复步骤6直至完成ω个周期的训练,并保存测试集识别正确率最高时的模型参数。2.根据权利要求1所述的一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,其特征在于:所述步骤2输入层的操作为:对输入的弹道目标hrrp每个距离单元的信号强度归一化到[0,1]的范围内。3.根据权利要求2所述的一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,其特征在于:所述步骤2的一维深度可分离融合卷积层依次由三个有序的模块组成:用于通道变换的逐点卷积核、mish函数激活的深度卷积核和用于特征融合的逐点卷积核,具体的操作为:步骤1.1:第一个逐点卷积核将经过输入层的输入特征图进行通道变换;步骤1.2:对步骤2.1通道变换得到的特征图使用深度卷积进行进一步处理,对特征图进行补零操作,深度卷积使用mish函数激活;步骤2.3:第二个逐点卷积对步骤2.2深度卷积得到特征图进行融合变换。4.根据权利要求3所述的一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,其特征在于:所述非线性激活层的操作为:使用非线性激活函数对一维深度可分离融合卷积层的输出进行激活,dsfcnn模型结构中所有非线性激活函数均采用mish函数。5.根据权利要求4所述的一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,其特征在于:所述池化层的操作为:对于步骤2.3中第l个一维深度可分离融合卷积层的第k个输出特征图进行最大池化操
作,最大池化后特征图的个数不变。6.根据权利要求5所述的一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,其特征在于:所述平坦层和分类器的操作为:最后一个卷积模块的输出经过平坦层的拉平操作,所有特征图排列为一个一维的向量作为softmax分类器的输入,softmax分类器的神经元个数与待分类目标的类别总数相等,对于每个弹道目标hrrp样本(x
(k)
,y
(k)
),x
(k)
和y
(k)
分别表示弹道目标hrrp样本数据和对应真实标签,softmax分类器第q个神经元的输出表示的是将样本x
(k)
判断为第q个类别的概率。7.根据权利要求6所述的一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法,其特征在于:所述步骤4具体为:步骤4.1:在每个小批次样本数据集m
t
,建立损失函数公式;步骤4.2:对于步骤3.1中的小批次数据集m
t
,随机采样一个锚点样本及其对应的正例样本和负例样本,建立小批次数据集m
t
上的triplet损失函数;步骤4.3:在有限样本识别问题中,综合步骤4.1和步骤4.2,建立最终的有限样本学习损失函数。

技术总结
本发明属于雷达技术领域,具体地涉及一种深度可分离融合卷积神经网络的有限样本弹道目标识别方法。包括:步骤1:从高分辨雷达中获取弹道目标HRRP样本,构建训练集和测试集,训练周期为Ω;步骤2:构建DSFCNN网络;步骤3:对步骤2的DSFCNN网络的可训练参数θ初始化;步骤4:构建有限样本学习损失函数,计算每个批次数据的损失函数值;步骤5:使用随机梯度下降算法完成1个批次的可训练参数更新,得到θ1;步骤6:令θ0=θ1,重复步骤4和步骤5,最终得到参数θ


技术研发人员:王晓丹 向前 宋亚飞 来杰 李睿 雷蕾
受保护的技术使用者:中国人民解放军空军工程大学
技术研发日:2022.07.01
技术公布日:2022/11/1
转载请注明原文地址: https://tieba.8miu.com/read-9945.html

最新回复(0)