一种基于深度学习的中心差分信息滤波相位解缠方法

专利2023-06-19  114



1.本发明涉及相位展开技术领域,具体涉及一种基于深度学习的中心差分信息滤波相位解缠方法。


背景技术:

2.从干涉图模2π映射的缠绕相位空间[-π,π)恢复出反应被测目标真实物理量的解缠相位的过程,即为相位解缠。相位解缠是许多干涉测量技术,如数码全息干涉技术及条纹投影轮廓术(dhm)、干涉合成孔径雷达(insar)、磁共振成像(mri)、干涉合成孔径声纳(insas)、自适应光学和散斑成像等中不可或缺的步骤,干涉图相位解缠精度直接关系到上述干涉测量技术所提取的物理量估计精度。
[0003]
现有技术的常用解缠方法有:but、qgpu、ils、ukfpu等,这些方法进行解缠,容易出现重缠绕相位图条纹边缘中均存在大量毛刺状噪声,解缠相位误差动态范围相对较大等问题。因此,需要一种能够更为有效地处理干涉图相位解缠问题的技术方案。


技术实现要素:

[0004]
本发明旨在提供一种基于深度学习的中心差分信息滤波相位解缠方法,该方法能在干涉图相位解缠实验中获得更稳健的结果,并且其效率可以接受,能够有效地处理干涉图相位解缠问题。
[0005]
本发明的技术方案如下:
[0006]
所述的基于深度学习的中心差分信息滤波相位解缠方法,包括以下步骤:
[0007]
a、构建cdif相位解缠递推模型和深度神经网络,所述的深度神经网络为基于lanet的干涉图语义分割网络;所述的lanet神经网络如下述文件所记载:
[0008]
l.ding,h.tang,l.bruzzone,“lanet:local attention embedding to improve the semantic segmentation of remote sensing images,”ieee trans geosci remote sens.59(1),426-435(2020).
[0009]
b、将干涉图采用重合裁剪方式,裁剪为若干个256*256尺寸的子干涉图,并且裁剪时相邻子干涉图间留有数行或数列的重叠像元,将这些子干涉图依次输入深度神经网络,得到若干个基于干涉图条纹分布且由不同整数缠绕数k构成的子干涉图语义分割图;然后利用相邻子块重叠像元相位缠绕数相同的原则来拼接各个子干涉图语义分割图,得到整幅干涉图的语义分割图;
[0010]
c、对整幅干涉图的语义分割图中语义分割区域进行合并与优化调整,得到干涉图区域分割图;
[0011]
d、利用cdif相位解缠递推模型分别对干涉图区域分割图中的各个分割区域进行解缠,得到干涉图区域分割图中的各个分割区域的解缠结果;
[0012]
e、利用干涉图相邻区域解缠相位一致性准则合并各个分割区域的解缠结果,得到整幅干涉图解缠相位图。
[0013]
所述的步骤b中,利用相邻子块重叠像元相位缠绕数相同的原则来拼接各个子干涉图语义分割图的过程为:
[0014]
a、在前的子干涉图语义分割图与其右方或下方的相邻子干涉图语义分割图进行拼接操作,将该两幅子干涉图语义分割图的重叠像元做差得到差值,右方或者下方的子干涉图语义分割图加上或减去该差值,使得两幅子干涉图语义分割图的重叠像元的相位缠绕数一致;裁剪该右方或下方的子干涉图语义分割图中的重叠像元部分,即可得到调整后的右方或下方子干涉图语义分割图,将调整后的右方或下方子干涉图语义分割图和在前的子干涉图语义分割图合并,得到拼接子干涉图语义分割图;
[0015]
b、以位于左上角的子干涉图语义分割图为起点,按先从左往右,到尽头后转到下一行,再从左往右,如此往复的顺序重复步骤a进行拼接,直至所有子干涉图语义分割图拼接为一幅图像,得到整幅干涉图的语义分割图。
[0016]
所述的步骤c中,对整幅干涉图的语义分割图中语义分割区域进行合并与优化调整的过程为:
[0017]
a、设置分割区域像元数阈值,分割区域像元数阈值为整幅干涉图总像元数的1/6。
[0018]
b、将整幅干涉图的语义分割图的各分割区域编制序号,各个分割区域的序号由该区域整数的相位缠绕数k标记,然后按照分割区域序号k从小到大的顺序,依次判断各语义分割区域像元数是否大于分割区域像元数阈值,若是,则保持该语义分割区域不变;若否,则合并相邻语义分割区域,直至合并后的语义分割区域像元数大于分割区域像元数阈值;
[0019]
c、将步骤b处理后的语义分割区域按优化调整的顺序进行排序,得到干涉图区域分割图。
[0020]
所述的步骤d中,利用cdif相位解缠递推模型进行解缠的过程为:
[0021]
按照干涉图区域分割图中各分割区域序号从小到大的顺序,利用cdif相位解缠递推模型依次解缠干涉图区域分割图中各分割区域;对各个分割区域进行解缠时,利用基于堆排序的路径跟踪策略,对该区域中的像元沿高质量像元到低质量像元的路径执行二维相位解缠;
[0022]
cdif相位解缠递推模型如下:
[0023]
a、构造cdif sigma点
[0024]
计算像元(m,n)的一步状态预测值及一步状态预测误差协方差
[0025][0026]
式中,像元(a,s)为像元(m,n)8邻域像元中的已解缠像元;ψ为像元(m,n)8邻域像元中的已解缠像元的集合;snr(a,s)为像元(a,s)的信噪比。根据l维状态变量(l=1),进一步生成如下2l+1个sigma点:
[0027][0028]
式中,h表示中心差分半步长度,通常取则相应权值计算如下:
[0029][0030]
b、状态预测
[0031]
计算像元(m,n)的状态预测值及状态预测误差协方差
[0032][0033]
式中,q(m,n)表示相位梯度估计误差方差;为利用levenberg-marquardt算子对优化后的状态预测误差协方差,其中u表示调节参数(本文取u=0.21),i为单位矩阵;
[0034]
c、状态空间转向信息空间,
[0035]
计算像元(m,n)的预测信息矩阵及预测信息状态向量
[0036][0037]
d、量测更新
[0038]
计算像元(m,n)的量测预测值及互协方差p
xz
(m,n):
[0039][0040]
计算像元(m,n)的信息矩阵分布i(m,n)和信息状态分布i(m,n):
[0041]
[0042]
式中,z(m,n)和e(m,n)分别表示像元(m,n)的观测值和残差;r(m,n)为像元(m,n)的观测噪声方差。则像元(m,n)的信息矩阵y(m,n)及信息状态向量y(m,n)按下式计算:
[0043][0044]
e、信息空间转向状态空间
[0045]
更新像元(m,n)的状态估计值及状态估计误差协方差
[0046][0047]
所述的cdif-based相位解缠的系统方程为:
[0048][0049]
式中,x(m,n)和z(m,n)分别表示干涉图(m,n)像元状态变量(亦即解缠相位)及观测矢量;为干涉图(m,n)像元和(a,s)像元之间的相位梯度估计值,w
(m,n)|(a,s)
为干涉图相位梯度估计误差;v(m,n)表示干涉图(m,n)像元观测噪声矢量,v1(m,n)和v2(m,n)分别为状态变量正交分量观测噪声和同相分量观测噪声。
[0050]
所述的深度神经网络包括resnet50模块、pam模块、aem模块;
[0051]
所述的子干涉图输入resnet50模块中,经resnet50模块压缩后,分别获得压缩至1/32的高级特征图和压缩至1/4的低级特征图;
[0052]
高级特征图经pam模块处理后与高级特征图相加融合得到增强高级特征图;
[0053]
低级特征图经pam模块处理后与低级特征图相加融合得到低级特征融合图,低级特征融合图和增强高级特征图分别输入aem模块,aem模块的输出结果与低级特征融合图相加融合得到增强低级特征图;
[0054]
增强高级特征图与增强低级特征图经叠加融合后,得到基于干涉图条纹分布且由不同整数缠绕数k构成的子干涉图语义分割图。
[0055]
所述的resnet50模块包括依次连接的卷积层、最大池化层、block1-4层,子干涉图经卷积层处理后,经最大池化层调整后,进入block1层中压缩至1/4,得到低级特征图;
[0056]
所述的低级特征图分别输入block2层和pam模块中,低级特征图经block2层压缩至其的1/2后输出至block3层,在block3层中再次压缩1/2后输出至block4层,经block4层再次压缩1/2后得到压缩至1/32的高级特征图。
[0057]
所述的卷积层为7
×
7-16卷积层;所述的最大池化层为3
×
3最大池化层。
[0058]
所述的pam模块处理过程为:输入特征依次经过自适应平均池化、1
×
1卷积、上采样处理后,乘以sigmoid函数归一化的可训练权重,然后与输入特征相乘融合,然后与输入特征进行相加融合,获得pam输出特征;
[0059]
所述的aem模块处理过程为:增强高级特征图经过自适应平均池化、1
×
1卷积、上采样处理后,乘以sigmoid函数归一化的可训练权重,然后与低级特征融合图相乘融合,然后与低级特征融合图进行相加融合,获得aem输出特征。
[0060]
所述的步骤e中,利用干涉图相邻区域解缠相位一致性准则合并各个分割区域的
解缠结果过程为:
[0061]
设定任两个相邻的分割区域分别为干涉图分割区域a和干涉图分割区域b;
[0062]
若干涉图分割区域a像元数大于或等于其相邻分割区域b像元数,则把干涉图分割区域b合并到其相邻分割区域a,其解缠相位按如下计算:
[0063][0064]
式中,i和j分别为a和b区域内的像元,且i位于j的邻接域内;φa(i)和φb(j)分别为i和j像元的解缠相位;round[x]表示对x做取整运算;φb为b区域解缠结果,φ'b为b区域修正后的解缠相位;a

为区域a和b合并形成的区域,φa′
为合并区域a

的解缠相位。
[0065]
若干涉图分割区域b像元数大于或等于其相邻分割区域a像元数,则把干涉图分割区域a合并到其相邻分割区域b,其解缠相位按如下计算:
[0066][0067]
式中,φ'a为a区域修正后的解缠相位;b

为区域a和b合并形成的区域,φb′
为合并区域b

的解缠相位;
[0068]
将合并后的解缠结果与下一个相邻的分割区域的解缠结果,如此对所有分割区域解缠结果进行合并处理,直到合并完所有分割区域的解缠结果,即得到整幅干涉图解缠相位图。
[0069]
本发明的解缠方法是将基于深度学习区域分割技术、cdif算法、高效局部相位梯度估计算法以及基于堆排序的路径跟踪策略有机结合起来的结果,并在模拟与实测数据实验中验证了本发明算法的有效性。与一些常用算法包括枝切法、迭代最小二乘法、质量引导法以及ukfpu等方法相比,本发明方法能在干涉图相位解缠实验中获得更稳健的结果和可以接受的效率,能够有效地处理干涉图相位解缠问题。
附图说明
[0070]
图1为本发明实施例1的深度神经网络的整体结构示意图;
[0071]
图2为本发明实施例1的resnet50模块的结构示意图;
[0072]
图3为本发明实施例1的pam模块的结构示意图;
[0073]
图4为本发明实施例1的aem模块的结构示意图;
[0074]
图5为本发明实施例2中的不同条纹模式的模拟干涉图;
[0075]
图6为本发明实施例2中用but算法解缠图5中d-f的结果图;
[0076]
图7为本发明实施例2中用qgpu算法解缠图5中d-f的结果图;
[0077]
图8为本发明实施例2中用ils算法解缠图5中d-f的结果图;
[0078]
图9为本发明实施例2中用ukfpu算法解缠图5中d-f的结果图;
[0079]
图10为本发明实施例2中用实施例1算法解缠图5中d-f的结果图;
[0080]
图11为本发明实施例2的局部enta火山干涉相位图以及but解缠结果图;
[0081]
图12为本发明实施例2的局部enta火山干涉相位图的qgpu、ils以及ukfpu方法解缠结果;
[0082]
图13为本发明实施例2的局部enta火山干涉相位图的本发明实施例1算法解缠结果图;
具体实施方式
[0083]
下面结合附图和实施例具体说明本发明。
[0084]
实施例1
[0085]
本实施例提供的一种基于深度学习的中心差分信息滤波相位解缠方法,包括以下步骤:
[0086]
所述的基于深度学习的中心差分信息滤波相位解缠方法,包括以下步骤:
[0087]
a、构建cdif相位解缠递推模型和深度神经网络,所述的深度神经网络为基于lanet的干涉图语义分割网络;
[0088]
如图1所示,所述的深度神经网络包括resnet50模块、pam模块、aem模块;
[0089]
如图2所示,所述的resnet50模块包括依次连接的7
×
7-16卷积层、3
×
3最大池化层、block1-4层;图2中,c代表网络层数通道数,本实施例中c=16;
[0090]
所述的resnet50模块包括依次连接的卷积层、最大池化层、block1-4层,子干涉图经卷积层处理后,经最大池化层调整后,进入block1层中压缩至1/4,得到低级特征图;
[0091]
所述的低级特征图分别输入block2层和pam模块中,低级特征图经block2层压缩至其的1/2后输出至block3层,在block3层中再次压缩1/2后输出至block4层,经block4层再次压缩1/2后得到压缩至1/32的高级特征图。
[0092]
高级特征图经pam模块处理后与高级特征图相加融合得到增强高级特征图;
[0093]
低级特征图经pam模块处理后与低级特征图相加融合得到低级特征融合图,低级特征融合图和增强高级特征图分别输入aem模块,aem模块的输出结果与低级特征融合图相加融合得到增强低级特征图;
[0094]
如图3所示,所述的pam模块处理过程为:输入特征依次经过自适应平均池化、1
×
1卷积、上采样处理后,乘以sigmoid函数归一化的可训练权重,然后与输入特征相乘融合,然后与输入特征进行相加融合,获得pam输出特征。
[0095]
如图4所示,所述的aem模块处理过程为:增强高级特征图经过自适应平均池化、1
×
1卷积、上采样处理后,乘以sigmoid函数归一化的可训练权重,然后与低级特征融合图相乘融合,然后与低级特征融合图进行相加融合,获得aem输出特征;
[0096]
增强高级特征图与增强低级特征图经叠加融合后,得到若干个基于干涉图条纹分布且由不同整数缠绕数k构成的子干涉图语义分割图。
[0097]
b、神经网络的训练:
[0098]
step 1,按如下两种方式生产:(i)首先创建7000个尺寸大小为2
×
2-5
×
5的随机初始矩阵,再使用双三次插值法对初始矩阵进行扩展,使其尺寸大小放大到256
×
256,即为真实干涉相位,然后将生成的真实干涉相位转换成含不同信噪比的噪声缠绕相位,从而产
生7000组数据,其图像尺寸为256
×
256,真实解缠相位范围为0-60弧度;(ii)由地形dem数据转化insar干涉相位数据10000组,即先利用insar技术原理把dem数据转换为真实干涉相位,其图像尺寸为256
×
256,真实干涉相位范围为0-60弧度,然后将生成的真实干涉相位转换成含不同信噪比的噪声缠绕相位。
[0099]
step 2,干涉图真实相位φ(m,n)与缠绕相位ψ(m,n)存在如下关系:
[0100]
φ(m,n)=ψ(m,n)+2πκ(m,n)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(13)
[0101]
其中,κ(m,n)为干涉图(m,n)像元整数的缠绕数;
[0102]
根据上述公式13,从step 1生成的真实干涉相位图中提取其整数的缠绕数值图,作为网络输入insar干涉图的标签图像,输入深度神经网络中进行训练;
[0103]
利用主流深度学习框架keras2.4.3来训练上述lanet网络,计算机软硬件配置见下表1。使用自适应矩估计优化器进行网络训练,损失函数为类别交叉熵,初始学习速率为0.001,训练轮数为160,最小训练批次为8,训练时间约为32小时;
[0104]
表1计算机软硬件配置
[0105][0106]
c、将干涉图采用重合裁剪方式,裁剪为若干个256*256尺寸的子干涉图,并且裁剪时相邻子干涉图间留有数行或数列的重叠像元,将这些子干涉图依次输入深度神经网络,得到基于干涉图条纹分布且由不同整数缠绕数k构成的子干涉图语义分割图;然后利用相邻子块重叠像元相位缠绕数相同的原则来拼接各个子干涉图语义分割图,得到整幅干涉图的语义分割图;
[0107]
利用相邻子块重叠像元相位缠绕数相同的原则来拼接各个子干涉图语义分割图的过程为:
[0108]
a、在前的子干涉图语义分割图与其右方或下方的相邻子干涉图语义分割图进行拼接操作,将该两幅子干涉图语义分割图的重叠像元做差得到差值,右方或者下方的子干涉图语义分割图加上或减去该差值,使得两幅子干涉图语义分割图的重叠像元的相位缠绕数一致;裁剪该右方或下方的子干涉图语义分割图中的重叠像元部分,即可得到调整后的右方或下方子干涉图语义分割图,将调整后的右方或下方子干涉图语义分割图和在前的子干涉图语义分割图合并,得到拼接子干涉图语义分割图;
[0109]
b、以位于左上角的子干涉图语义分割图为起点,按先从左往右,到尽头后转到下一行,再从左往右,如此往复的顺序重复步骤a进行拼接,直至所有子干涉图语义分割图拼接为一幅图像,得到整幅干涉图的语义分割图。
[0110]
d、对整幅干涉图的语义分割图中语义分割区域进行合并与优化调整,得到干涉图区域分割图;
[0111]
对整幅干涉图的语义分割图中语义分割区域进行合并与优化调整的过程为:
[0112]
a、设置分割区域像元数阈值,分割区域像元数阈值为整幅干涉图总像元数的1/6。
[0113]
b、将整幅干涉图的语义分割图的各分割区域编制序号,各个分割区域的序号由该区域整数的相位缠绕数k标记,然后按照分割区域序号k从小到大的顺序,依次判断各语义分割区域像元数是否大于分割区域像元数阈值,若是,则保持该语义分割区域不变;若否,
则合并相邻语义分割区域,直至合并后的语义分割区域像元数大于分割区域像元数阈值;
[0114]
c、将步骤b处理后的语义分割区域按优化调整的顺序进行排序,得到干涉图区域分割图。
[0115]
e、利用cdif相位解缠递推模型分别对干涉图区域分割图中的各个分割区域进行解缠,得到干涉图区域分割图中的各个分割区域的解缠结果;
[0116]
利用cdif相位解缠递推模型进行解缠的过程为:
[0117]
按照干涉图区域分割图中各分割区域序号从小到大的顺序,利用cdif相位解缠递推模型依次解缠干涉图区域分割图中各分割区域;对各个分割区域进行解缠时,利用基于堆排序的路径跟踪策略,对该区域中的像元沿高质量像元到低质量像元的路径执行二维相位解缠;
[0118]
cdif相位解缠递推模型如下:
[0119]
a、构造cdif sigma点
[0120]
计算像元(m,n)的一步状态预测值及一步状态预测误差协方差
[0121][0122]
式中,像元(a,s)为像元(m,n)8邻域像元中的已解缠像元;ψ为像元(m,n)8邻域像元中的已解缠像元的集合;snr(a,s)为像元(a,s)的信噪比。根据l维状态变量(l=1),进一步生成如下2l+1个sigma点:
[0123][0124]
式中,h表示中心差分半步长度,通常取则相应权值计算如下:
[0125][0126]
b、状态预测
[0127]
计算像元(m,n)的状态预测值及状态预测误差协方差
[0128][0129]
式中,q(m,n)表示相位梯度估计误差方差;为利用levenberg-marquardt算子对优化后的状态预测误差协方差,其中u表示调节参数(本文取u=0.21),i为单位矩阵;
[0130]
c、状态空间转向信息空间,
[0131]
计算像元(m,n)的预测信息矩阵及预测信息状态向量
[0132][0133]
d、量测更新
[0134]
计算像元(m,n)的量测预测值及互协方差p
xz
(m,n):
[0135][0136]
计算像元(m,n)的信息矩阵分布i(m,n)和信息状态分布i(m,n):
[0137][0138]
式中,z(m,n)和e(m,n)分别表示像元(m,n)的观测值和残差;r(m,n)为像元(m,n)的观测噪声方差。则像元(m,n)的信息矩阵y(m,n)及信息状态向量y(m,n)按下式计算:
[0139][0140]
e、信息空间转向状态空间
[0141]
更新像元(m,n)的状态估计值及状态估计误差协方差
[0142][0143]
所述的cdif-based相位解缠的系统方程为:
[0144][0145]
式中,x(m,n)和z(m,n)分别表示干涉图(m,n)像元状态变量(亦即解缠相位)及观测矢量;为干涉图(m,n)像元和(a,s)像元之间的相位梯度估计值,w
(m,n)|(a,s)
为干涉图相位梯度估计误差;v(m,n)表示干涉图(m,n)像元观测噪声矢量,v1(m,n)和v2(m,n)分别为状态变量正交分量观测噪声和同相分量观测噪声。
[0146]
f、利用干涉图相邻区域解缠相位一致性准则合并各个分割区域的解缠结果,得到整幅干涉图解缠相位图。
[0147]
利用干涉图相邻区域解缠相位一致性准则合并各个分割区域的解缠结果过程为:
[0148]
设定任两个相邻的分割区域分别为干涉图分割区域a和干涉图分割区域b;
[0149]
若干涉图分割区域a像元数大于或等于其相邻分割区域b像元数,则把干涉图分割区域b合并到其相邻分割区域a,其解缠相位按如下计算:
[0150][0151]
式中,i和j分别为a和b区域内的像元,且i位于j的邻接域内;φa(i)和φb(j)分别为i和j像元的解缠相位;round[x]表示对x做取整运算;φb为b区域解缠结果,φ'b为b区域修正后的解缠相位;a

为区域a和b合并形成的区域,φa′
为合并区域a

的解缠相位。
[0152]
若干涉图分割区域b像元数大于或等于其相邻分割区域a像元数,则把干涉图分割区域a合并到其相邻分割区域b,其解缠相位按如下计算:
[0153][0154]
式中,φ'a为a区域修正后的解缠相位;b

为区域a和b合并形成的区域,φb′
为合并区域b

的解缠相位;
[0155]
将合并后的解缠结果与下一个相邻的分割区域的解缠结果,如此对所有分割区域解缠结果进行合并处理,直到合并完所有分割区域的解缠结果,即得到整幅干涉图解缠相位图。
[0156]
实施例2
[0157]
为了验证本发明实施例1算法的有效性,利用几种常用相位解缠算法包括枝切法(but)、质量引导法(qgpu)、迭代最小二乘法(ils)以及无味卡尔曼滤波相位解缠算法(ukfpu)与本发明实施例1方法在同一matlab软件环境(intel(r)core(tm)i7-10700k cpu@3.80ghz3.79ghz)下对不同类型的模拟与实测数据进行相位解缠实验,并对实验结果对比分析。
[0158]
一、模拟数据实验
[0159]
图5中a-c分别为peaks、金字塔、山地场景真实干涉相位,其图像分辨率均为502
×
502;图5中d-f分别为图5中a-c所示真实干涉相位所对应的含噪声缠绕相位图,其信噪比依次为6.10db、4.94db、3.92db;
[0160]
图6为but算法对图5中d-f所示缠绕相位图进行相位解缠获得的结果图,行方向从上到下依次为“peaks”干涉图解缠结果,“金字塔”干涉图解缠结果,“山地场景”干涉图解缠结果;列方向从左到右分别为:解缠相位,解缠误差,解缠误差直方图。
[0161]
图7为qgpu算法解缠图5中d-f的结果图。行方向从上到下依次为“peaks”干涉图解缠结果,“金字塔”干涉图解缠结果,“山地场景”干涉图解缠结果;列方向从左到右分别为:解缠相位,解缠误差,解缠误差直方图。
[0162]
图8为ils算法解缠图5中d-f的结果图。行方向从上到下依次为“peaks”干涉图解缠结果,“金字塔”干涉图解缠结果,“山地场景”干涉图解缠结果;列方向从左到右分别为:解缠相位,解缠误差,解缠误差直方图。
[0163]
图9为ukfpu算法解缠图5中d-f的结果图。行方向从上到下依次为“peaks”干涉图解缠结果,“金字塔”干涉图解缠结果,“山地场景”干涉图解缠结果;列方向从左到右分别为:解缠相位,解缠误差,解缠误差直方图。
[0164]
图10为实施例1算法解缠图5中d-f的结果图。行方向从上到下依次为“peaks”干涉图解缠结果,“金字塔”干涉图解缠结果,“山地场景”干涉图解缠结果;列方向从左到右分别为:语义分割图、区域分割图、解缠相位,解缠误差,解缠误差直方图。
[0165]
表2各算法均方根误差
[0166][0167][0168]
表3各算法运行时间
[0169][0170]
图6-图9的左、中、右列分别为but、qgpu、ils、ukfpu算法解缠图5中d-f所示噪声缠绕相位图所得的解缠相位、解缠相位误差以及误差直方图;
[0171]
图10为本发明实施例1算法解缠图5中d-f所示噪声缠绕相位图的结果,其中第1列至第2列分别为实施例1算法生成的干涉图语义分割图以及干涉图区域分割图,第3列至第5列分别为实施例1算法解缠相位、解缠相位误差以及误差直方图。
[0172]
由图6-图10所示的各算法解缠相位误差以及误差直方图可以直观地观察到but、qgpu、ils解缠相位误差动态范围相对较大;ukfpu和本发明实施例1算法解缠精度较高,其解缠相位误差集中在[-1,1]区间,即解缠相位误差动态范围远远小于前述三种算法。表2列出了各算法解缠图5中a-c所示真实干涉相位所对应的不同信噪比干涉图的均方根误差(30次实验的平均)。由表2可知随着干涉图信噪比降低,but、qgpu、ils解缠相位精度下降明显;与此同时,ukfpu和本发明实施例1算法能从不同信噪比干涉图相位解缠实验中获得较为稳健的结果,其解缠相位误差随干涉图信噪比降低而增大缓慢,且本发明实施例1算法解缠相位误差明显略小于ukfpu方法。上述算法运行时间几乎完全取决于干涉图尺寸大小,表3列出了各算法解缠上述干涉相位图时的平均运行时间,可以看出本发明实施例1算法运行时间略大于but和ils方法,但远小于qgpu和ukfpu方法。因此,本发明实施例1算法算法在上述干涉图相位解缠实验中获得稳健结果的同时,其解缠效率亦可接受。
[0173]
二、实测数据实验
[0174]
图11中a为局部enta火山干涉相位图以及but解缠结果图,图11中b为干涉图相位残差点图,图11中c为but解缠相位,可以看出but方法在相位残差点较为密集区域存在明显的相位不一致以及无法解缠的孤立区域,见图11中c所示解缠相位图中黑色矩形框所在区域。
[0175]
qgpu、ils以及ukfpu方法解缠结果见图12,其中图12中a-c分别为qgpu、ils以及ukfpu方法解缠相位,图12中d-f分别为qgpu、ils以及ukfpu方法解缠相位重缠绕结果。
[0176]
图13为本发明实施例1算法解缠结果图,其中图13中a-d分别本发明实施例1解缠算法语义分割图、本发明实施例1解缠算法区域分割图、本发明实施例1解缠算法解缠相位以及其解缠相位重缠绕结果。从图12可以看出qgpu、ils、ukfpu解缠相位连续,但qgpu、ils重缠绕相位图条纹边缘中均存在大量毛刺状噪声,这可能降低这两种算法的可靠性。与此同时,图13中显示本发明实施例解缠算法解缠相位连续一致,其重缠绕相位图条纹与原始干涉图条纹一致,且重缠绕相位图中几乎不存在明显相位噪声,这表明该算法在上述干涉图相位解缠实验中获得了较好的结果。
[0177]
4结论
[0178]
本发明实施例1算法与一些常用算法包括枝切法、迭代最小二乘法、质量引导法以及ukfpu等方法相比,本发明实施例1算法能在干涉图相位解缠实验中获得更稳健的结果和可以接受的效率,能够有效地处理干涉图相位解缠问题。

技术特征:
1.一种基于深度学习的中心差分信息滤波相位解缠方法,其特征在于包括以下步骤:a、构建cdif相位解缠递推模型和深度神经网络,所述的深度神经网络为基于lanet的干涉图语义分割网络;b、将干涉图采用重合裁剪方式,裁剪为若干个256*256尺寸的子干涉图,并且裁剪时相邻子干涉图间留有数行或数列的重叠像元,将这些子干涉图依次输入深度神经网络,得到若干个基于干涉图条纹分布且由不同整数缠绕数k构成的子干涉图语义分割图;然后利用相邻子块重叠像元相位缠绕数相同的原则来拼接各个子干涉图语义分割图,得到整幅干涉图的语义分割图;c、对整幅干涉图的语义分割图中语义分割区域进行合并与优化调整,得到干涉图区域分割图;d、利用cdif相位解缠递推模型分别对干涉图区域分割图中的各个分割区域进行解缠,得到干涉图区域分割图中的各个分割区域的解缠结果;e、利用干涉图相邻区域解缠相位一致性准则合并各个分割区域的解缠结果,得到整幅干涉图解缠相位图。2.如权利要求1所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的步骤b中,利用相邻子块重叠像元相位缠绕数相同的原则来拼接各个子干涉图语义分割图的过程为:a、在前的子干涉图语义分割图与其右方或下方的相邻子干涉图语义分割图进行拼接操作,将该两幅子干涉图语义分割图的重叠像元做差得到差值,右方或者下方的子干涉图语义分割图加上或减去该差值,使得两幅子干涉图语义分割图的重叠像元的相位缠绕数一致;裁剪该右方或下方的子干涉图语义分割图中的重叠像元部分,即可得到调整后的右方或下方子干涉图语义分割图,将调整后的右方或下方子干涉图语义分割图和在前的子干涉图语义分割图合并,得到拼接子干涉图语义分割图;b、以位于左上角的子干涉图语义分割图为起点,按先从左往右,到尽头后转到下一行,再从左往右,如此往复的顺序重复步骤a进行拼接,直至所有子干涉图语义分割图拼接为一幅图像,得到整幅干涉图的语义分割图。3.如权利要求2所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的步骤c中,对整幅干涉图的语义分割图中语义分割区域进行合并与优化调整的过程为:a、设置分割区域像元数阈值,分割区域像元数阈值为整幅干涉图总像元数的1/6。b、将整幅干涉图的语义分割图的各分割区域编制序号,各个分割区域的序号由该区域整数的相位缠绕数k标记,然后按照分割区域序号k从小到大的顺序,依次判断各语义分割区域像元数是否大于分割区域像元数阈值,若是,则保持该语义分割区域不变;若否,则合并相邻语义分割区域,直至合并后的语义分割区域像元数大于分割区域像元数阈值;c、将步骤b处理后的语义分割区域按优化调整的顺序进行排序,得到干涉图区域分割图。4.如权利要求1所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的步骤d中,利用cdif相位解缠递推模型进行解缠的过程为:按照干涉图区域分割图中各分割区域序号从小到大的顺序,利用cdif相位解缠递推模
型依次解缠干涉图区域分割图中各分割区域;对各个分割区域进行解缠时,利用基于堆排序的路径跟踪策略,对该区域中的像元沿高质量像元到低质量像元的路径执行二维相位解缠;cdif相位解缠递推模型如下:a、构造cdif sigma点计算像元(m,n)的一步状态预测值及一步状态预测误差协方差及一步状态预测误差协方差及一步状态预测误差协方差及一步状态预测误差协方差及一步状态预测误差协方差式中,像元(a,s)为像元(m,n)8邻域像元中的已解缠像元;ψ为像元(m,n)8邻域像元中的已解缠像元的集合;snr(a,s)为像元(a,s)的信噪比。根据l维状态变量(l=1),进一步生成如下2l+1个sigma点:成如下2l+1个sigma点:成如下2l+1个sigma点:式中,h表示中心差分半步长度,通常取则相应权值计算如下:则相应权值计算如下:则相应权值计算如下:则相应权值计算如下:b、状态预测计算像元(m,n)的状态预测值及状态预测误差协方差及状态预测误差协方差及状态预测误差协方差及状态预测误差协方差式中,q(m,n)表示相位梯度估计误差方差;为利用levenberg-marquardt算子对优化后的状态预测误差协方差,其中u表示调节参数(本文取u=0.21),i为单位矩阵;
c、状态空间转向信息空间,计算像元(m,n)的预测信息矩阵及预测信息状态向量及预测信息状态向量及预测信息状态向量d、量测更新计算像元(m,n)的量测预测值及互协方差p
xz
(m,n):(m,n):(m,n):(m,n):(m,n):(m,n):计算像元(m,n)的信息矩阵分布i(m,n)和信息状态分布i(m,n):计算像元(m,n)的信息矩阵分布i(m,n)和信息状态分布i(m,n):计算像元(m,n)的信息矩阵分布i(m,n)和信息状态分布i(m,n):式中,z(m,n)和e(m,n)分别表示像元(m,n)的观测值和残差;r(m,n)为像元(m,n)的观测噪声方差。则像元(m,n)的信息矩阵y(m,n)及信息状态向量y(m,n)按下式计算:。则像元(m,n)的信息矩阵y(m,n)及信息状态向量y(m,n)按下式计算:e、信息空间转向状态空间更新像元(m,n)的状态估计值及状态估计误差协方差及状态估计误差协方差及状态估计误差协方差5.如权利要求4所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的cdif-based相位解缠的系统方程为:based相位解缠的系统方程为:式中,x(m,n)和z(m,n)分别表示干涉图(m,n)像元状态变量(亦即解缠相位)及观测矢量;为干涉图(m,n)像元和(a,s)像元之间的相位梯度估计值,w
(m,n)|(a,s)
为干涉图相位梯度估计误差;v(m,n)表示干涉图(m,n)像元观测噪声矢量,v1(m,n)和v2(m,n)分别为状态变量正交分量观测噪声和同相分量观测噪声。
6.如权利要求1所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的深度神经网络包括resnet50模块、pam模块、aem模块;所述的子干涉图输入resnet50模块中,经resnet50模块压缩后,分别获得压缩至1/32的高级特征图和压缩至1/4的低级特征图;高级特征图经pam模块处理后与高级特征图相加融合得到增强高级特征图;低级特征图经pam模块处理后与低级特征图相加融合得到低级特征融合图,低级特征融合图和增强高级特征图分别输入aem模块,aem模块的输出结果与低级特征融合图相加融合得到增强低级特征图;增强高级特征图与增强低级特征图经叠加融合后,得到基于干涉图条纹分布且由不同整数缠绕数k构成的子干涉图语义分割图。7.如权利要求6所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的resnet50模块包括依次连接的卷积层、最大池化层、block1-4层,子干涉图经卷积层处理后,经最大池化层调整后,进入block1层中压缩至1/4,得到低级特征图;所述的低级特征图分别输入block2层和pam模块中,低级特征图经block2层压缩至其的1/2后输出至block3层,在block3层中再次压缩1/2后输出至block4层,经block4层再次压缩1/2后得到压缩至1/32的高级特征图。8.如权利要求7所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的卷积层为7
×
7-16卷积层;所述的最大池化层为3
×
3最大池化层。9.如权利要求6所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的pam模块处理过程为:输入特征依次经过自适应平均池化、1
×
1卷积、上采样处理后,乘以sigmoid函数归一化的可训练权重,然后与输入特征相乘融合,然后与输入特征进行相加融合,获得pam输出特征;所述的aem模块处理过程为:增强高级特征图经过自适应平均池化、1
×
1卷积、上采样处理后,乘以sigmoid函数归一化的可训练权重,然后与低级特征融合图相乘融合,然后与低级特征融合图进行相加融合,获得aem输出特征。10.如权利要求1所述的基于深度学习的中心差分信息滤波相位解缠方法,其特征在于:所述的步骤e中,利用干涉图相邻区域解缠相位一致性准则合并各个分割区域的解缠结果过程为:设定任两个相邻的分割区域分别为干涉图分割区域a和干涉图分割区域b;若干涉图分割区域a像元数大于或等于其相邻分割区域b像元数,则把干涉图分割区域b合并到其相邻分割区域a,其解缠相位按如下计算:φ'
b
=φ
b
+2π

ab
a

=a∪bφ
a

=φ
a
∪φ'
b
ꢀꢀꢀꢀ
(11)式中,i和j分别为a和b区域内的像元,且i位于j的邻接域内;φ
a
(i)和φ
b
(j)分别为i和j像元的解缠相位;round[x]表示对x做取整运算;φ
b
为b区域解缠结果,φ'
b
为b区域修正后
的解缠相位;a

为区域a和b合并形成的区域,φ
a

为合并区域a

的解缠相位。若干涉图分割区域b像元数大于或等于其相邻分割区域a像元数,则把干涉图分割区域a合并到其相邻分割区域b,其解缠相位按如下计算:φ'
a
=φ
a
+2π

ba
b

=b∪aφ
b

=φ
b
∪φ
a

ꢀꢀꢀꢀ
(12)式中,φ'
a
为a区域修正后的解缠相位;b

为区域a和b合并形成的区域,φ
b

为合并区域b

的解缠相位;将合并后的解缠结果与下一个相邻的分割区域的解缠结果,如此对所有分割区域解缠结果进行合并处理,直到合并完所有分割区域的解缠结果,即得到整幅干涉图解缠相位图。

技术总结
本发明旨在提供一种基于深度学习的中心差分信息滤波相位解缠方法,包括以下步骤:A、构建CDIF相位解缠递推模型和深度神经网络,所述的深度神经网络为基于LANET的干涉图语义分割网络;B、将干涉图输入深度神经网络处理后,得到基于干涉图条纹分布的语义分割图像;C、对干涉图语义分割区域进行合并与优化调整,得到尺寸大小适中的分割区域,以此来构成干涉图区域分割图D、利用CDIF相位解缠递推模型解缠干涉图区域分割图中的各个分割区域;E、合并各个分割区域的解缠结果,得到整幅干涉图解缠相位。本发明能在干涉图相位解缠实验中获得更稳健的结果,并且其效率可以接受,能够有效地处理干涉图相位解缠问题。理干涉图相位解缠问题。


技术研发人员:谢先明 李家莹
受保护的技术使用者:广西科技大学
技术研发日:2022.07.25
技术公布日:2022/11/1
转载请注明原文地址: https://tieba.8miu.com/read-3361.html

最新回复(0)