一种基于深度学习的无参考图像质量评价方法

专利2023-02-21  109



1.本发明涉及图像处理技术领域,特别涉及一种基于深度学习的无参考图像质量评价方法。


背景技术:

2.当下流行的三类客观图像质量评价方法中,全参考图像质量评价方法和半参考图像质量评价方法均需要利用无损参考图像的信息,它们的核心是对比参考图像和失真图像之间的信息量或特征相似度。然而在实际运用中,大多数情况下人们都很难获得无损的参考图像,即只能给模型提供失真图像,无法提供原始无失真的参考图像。随着无参考图像质量评价方法的提出,该方法对无损参考图像的无依赖性,在一定程度上弥补了全参考、半参考图像质量评价方法对无损参考图像强依赖性这一缺点。
3.传统的无参考图像质量评价方法试图手动设计特征描述符,期望提取与质量下降相关的图像特征。其中基于自然场景统计的方法是最流行的方法之一。然而,自然场景中的失真类型千变万化,手动设计的特征描述符只能表示部分单一的失真类型。
4.基于深度学习的无参考图像质量评价方法中,若只使用单个神经网络来提取层次信息,不管是底层局部信息还是高级全局信息,均会缺乏明确的物理意义,严重影响网络对特征层次退化的分析。
5.因此,在现有图像质量评价方法的基础上,如何当面对多种失真类型图像时,准确判断出图像的失真类型,成为本领域技术人员亟需解决的问题。


技术实现要素:

6.鉴于上述问题,本发明提出了一种至少解决上述部分技术问题的基于深度学习的无参考图像质量评价方法,该方法可实现当面对多种失真类型图像时,准确判断出图像的失真类型,并给出失真图像的预测分数。
7.本发明实施例提供一种基于深度学习的无参考图像质量评价方法,包括如下步骤:
8.s1、获取待预测图像质量的数据集图像;将所述数据集图像统一调整为第一预设尺寸;
9.s2、将调整为第一预设尺寸的所述数据集图像输入特征提取网络中,提取出三类不同的特征图;所述特征提取网络包括:底层纹理特征提取网络、低级轮廓特征提取网络和高级全局语义特征提取网络;所述三类不同的特征图包括:纹理特征矩阵图、低级轮廓特征矩阵图和全局语义特征图;
10.s3、分别将所述纹理特征矩阵图中的中间特征和所述低级轮廓特征矩阵图中的中间特征进行广播相加,进行特征融合,生成第一融合特征图;
11.s4、将所述第一融合特征图中的中间特征和所述全局语义特征图中的中间特征进行广播相加,进行特征融合,生成最终融合特征图;
12.s5、将所述最终融合特征图输入多个全连接层和激活层,得到所述待预测图像质量的数据集图像的质量评价预测分数。
13.进一步地,所述步骤s2包括:
14.将调整为第一预设尺寸的所述数据集图像输入所述底层纹理特征提取网络中,获得底层纹理特征;所述底层纹理特征提取网络为vgg19网络;
15.将所述底层纹理特征依次通过神经网络卷积层conv2d(256,512,1)和神经网络卷积层conv2d(512,512,9,7),将所述底层纹理特征调整为第二预设尺寸的纹理特征矩阵图;
16.进一步地,
17.将调整为第一预设尺寸的所述数据集图像输入所述低级轮廓特征提取网络中,获得低级轮廓特征;
18.将所述低级轮廓特征通过神经网络卷积层conv2d(640,512,1),将所述低级轮廓特征调整为第三预设尺寸的低级轮廓特征矩阵图;
19.进一步地,
20.将调整为第一预设尺寸的所述数据集图像输入所述高级全局语义特征提取网络中,获得全局语义特征图;
21.进一步地,
22.所述高级全局语义特征提取网络去除原始resnet50网络中的扁平化层和全连接层,在平均池化层前加入神经网络卷积层conv2d(2048,512,1)。
23.进一步地,所述步骤s3和步骤s4中的特征融合,包括:
24.s11、分别将两个进行特征融合的特征图中的中间特征进行广播相加;
25.s12、提取广播相加后的所述中间特征的全局特征上下文和局部特征上下文;根据所述全局特征上下文和局部特征上下文计算通道权重;根据所述通道权重,重新计算中间特征;将重新计算的中间特征替换步骤s11中的中间特征;
26.s13、重复执行所述步骤s11~s12预设次数;将最后一次执行所述步骤s12提取出的全局特征上下文和局部特征上下文的广播相加结果,作为对所述两个进行特征融合的特征图的特征融合结果。
27.进一步地,提取广播相加后的所述中间特征的全局特征上下文,包括:将广播相加后的所述中间特征进行全局平均池化;
28.通过如下公式将广播相加后的的所述中间特征进行全局平均池化:
[0029][0030]
上式中,g(x)表示全局平均池化操作;h*w表示特征图的大小;x
[:,i,j]
表示特征图所有坐标点(i,j)位置的像素信息;x表示特征图中的中间特征。
[0031]
进一步地,通过如下公式提取广播相加后的所述中间特征的全局特征上下文:
[0032]
g(x)=b(dir(b(dr(g(x))))
[0033]
上式中,g(x)表示全局特征上下文;g(x)表示全局平均池化操作;dr表示一个通道降低层;b表示批标准化操作;r表示线性整流激活函数;di表示一个通道增大层;x表示特征图中的中间特征。
[0034]
进一步地,通过如下公式提取广播相加后的所述中间特征的局部特征上下文:
[0035]
l(x)=b(pwconv(r(b(pwconv(x)))),
[0036]
上式中,l(x)表示局部特征上下文;b表示批标准化操作;r表示线性整流激活函数;pwconv表示点级卷积;x表示特征图中的中间特征。
[0037]
进一步地,通过如下公式计算通道权重:
[0038][0039]
上式中,w(x)表示通道权重;表示广播加权操作;l(x)表示局部特征上下文;g(x)表示全局特征上下文;x表示特征图中的中间特征;ss(.)表示sigmoid函数。
[0040]
进一步地,还包括:
[0041]
将所述三类不同的特征图分别输入多个全连接层和激活层,得到三个中间预测分数,构成中间分数集;
[0042]
通过计算所述中间分数集与真实标签分数之间的损失,以及所述质量评价预测分数与所述真实标签分数之间的损失,生成总体损失函数;
[0043]
根据所述总体损失函数对所述特征提取网络进行辅助训练。
[0044]
通过减少所述质量评价预测分数与真实标签分数之间的损失,获得所述待预测图像质量的数据集图像与所述质量评价预测分数之间的最佳映射关系。
[0045]
进一步地,所述总体损失函数为:
[0046][0047]
上式中,ls表示中间分数集与真实标签分数之间的损失之和;le表示质量评价预测分数与真实标签分数之间的损失;si表示中间预测分数;se表示质量评价预测分数;bi表示中间预测分数在总体损失函数中的相对权重。
[0048]
进一步地,通过如下公式计算ls和le:
[0049][0050]
上式中,a表示一个预设超参数;s表示质量评价预测分数或中间预测分数;m表示真实标签分数。
[0051]
进一步地,通过如下公式计算bi:
[0052][0053]
其中,
[0054]
上式中,si表示中间预测分数;m表示真实标签分数。
[0055]
本发明实施例提供的上述技术方案的有益效果至少包括:
[0056]
本发明实施例提供的一种基于深度学习的无参考图像质量评价方法,包括:获取待预测图像质量的数据集图像;将数据集图像统一调整为第一预设尺寸;将调整后的数据
集图像输入特征提取网络中,提取出三类不同的特征图;其中,特征提取网络包括:底层纹理特征提取网络、低级轮廓特征提取网络和高级全局语义特征提取网络;三类不同的特征图包括:纹理特征矩阵图、低级轮廓特征矩阵图和全局语义特征图;分别将纹理特征矩阵图中的中间特征和低级轮廓特征矩阵图中的中间特征进行广播相加,进行特征融合,生成第一融合特征图;将第一融合特征图中的中间特征和全局语义特征图中的中间特征进行广播相加,进行特征融合,生成最终融合特征图;将最终融合特征图输入多个全连接层和激活层,得到待预测图像质量的数据集图像的质量评价预测分数。该方法可实现当面对多种失真类型图像时,准确判断出图像的失真类型,并给出失真图像的质量评价预测分数。
[0057]
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
[0058]
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
[0059]
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
[0060]
图1为本发明实施例提供的基于深度学习的无参考图像质量评价方法流程图;
[0061]
图2为本发明实施例提供的基于深度学习的无参考图像质量评价方法示意图;
[0062]
图3为本发明实施例提供的aff基于注意力机制的特征融合示意图。
具体实施方式
[0063]
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
[0064]
本发明实施例提供一种基于深度学习的无参考图像质量评价方法,参照图1所示,包括如下步骤:
[0065]
s1、获取待预测图像质量的数据集图像;将数据集图像统一调整为第一预设尺寸;
[0066]
s2、将调整为第一预设尺寸的数据集图像输入特征提取网络中,提取出三类不同的特征图;特征提取网络包括:底层纹理特征提取网络、低级轮廓特征提取网络和高级全局语义特征提取网络;三类不同的特征图包括:纹理特征矩阵图、低级轮廓特征矩阵图和全局语义特征图;
[0067]
s3、分别将纹理特征矩阵图中的中间特征和低级轮廓特征矩阵图中的中间特征进行广播相加,进行特征融合,生成第一融合特征图;
[0068]
s4、将第一融合特征图中的中间特征和全局语义特征图中的中间特征进行广播相加,进行特征融合,生成最终融合特征图;
[0069]
s5、将最终融合特征图输入多个全连接层和激活层,得到待预测图像质量的数据集图像的质量评价预测分数。
[0070]
本实施例提供的基于深度学习的无参考图像质量评价方法,可实现当面对多种失
真类型图像时,准确判断出图像的失真类型,并给出失真图像的质量评价预测分数。
[0071]
下面具体对本无参考图像质量评价方法进行详细说明:
[0072]
批量加载失真类型图像的数据集图像后,将图像尺寸统一调整为224*224*3。参照图2所示,通过底层纹理特征提取模块、低级轮廓特征提取模块、高级全局语义提取模块,从原始224*224*3的图像中提取出三类不同的特征图(纹理特征矩阵图、低级轮廓特征矩阵图和全局语义特征图),每一个模块通过卷积、池化等操作后,将三类特征图大小统一调整为512*7*7。
[0073]
具体为:批量加载数据集图像后,将图像尺寸统一调整为224*224*3。基于修改后的vgg19网络,获得纹理特征矩阵图的大小为256*56*56;底层纹理特征提取模块将纹理特征矩阵图中的矩阵依次通过conv2d(256,512,1)(256指输入卷积层的通道数目,512指输出卷积层的通道数目,1指卷积核的大小)和conv2d(512,512,9,7)(512指输入卷积层的通道数目,512指输出卷积层的通道数目,9指卷积核的大小,7指步长;设置卷积核和步长,以此改变特征图的长和宽)后,将底层纹理特征图的大小调整为512*7*7。其中,conv2d是神经网络中的一层卷积操作。从低级轮廓特征提取模块中,获得低级轮廓特征的大小为1*224*224,修改权重参数后,低级轮廓特征矩阵的大小变为640*7*7,再将此结果通过conv2d(640,512,1)(640指输入卷积层的通道数目,512指输出卷积层的通道数目,1指卷积核的大小)后,将轮廓矩阵的大小调整为512*7*7。通过去除原始resnet50网络中的扁平化层和全连接层,并在平均池化层前加入conv2d(2048,512,1)(2048指输入卷积层的通道数目,512指输出卷积层的通道数目,1指卷积核的大小),最终得到通道数为512的全局语义特征图。
[0074]
由于提取出的三类特征图的层次特征间存在复杂的相关性,若使用简单的连接操作,则会降低多层次特征对图像内容的表达能力。为了更合理的利用多层次特征,更加有效的表达图像内容,采用基于注意力机制的特征融合方法(即aff),进行多层次特征融合。
[0075]
给定三类特征图中的中间特征x、y∈r
c*h*w
,其中c表示通道数,h*w(高度*宽度)表示特征图的大小。
[0076]
参照图2所示,分别将纹理特征矩阵图中的中间特征和低级轮廓特征矩阵图中的中间特征进行广播相加,进行特征融合(aff),生成第一融合特征图;将第一融合特征图中的中间特征和全局语义特征图中的中间特征进行广播相加,进行特征融合(aff),生成最终融合特征图;图2中aff表示基于注意力机制的特征融合方法;aff指将特征x和特征y经过三层相同的注意力机制融合操作后,得到最后的融合特征。
[0077]
参照图3所示,aff为:通过将特征x和特征y广播加权后,进行全局平均池化;后分别进行逐点卷积;通过批标准化操作输入线性整流激活函数;逐点卷积后,通过批标准化操作进行广播加权;广播加权后输入sigmoid激活函数;通过sigmoid激活函数与特征x和特征y进行元素间的智能乘积进行辅助训练。如此执行三层后,生成融合后的特征图,aff执行完毕。具体地,第一层中,特征x和特征y进行广播相加后得到特征矩阵,计算该特征矩阵的全局特征上下文(计算过程包括:全局平均池化
‑‑
》通道降低
‑‑
》批量标准化
‑‑
》线性整流激活
‑‑
》通道增大)和局部特征上下文(计算过程包括:点级卷积
‑‑
》批量标准化
‑‑
》线性整流激活
‑‑
》点级卷积
‑‑
》批量标准化);将全局特征上下文和局部特征上下文广播相加后进行sigmoid激活,以此获得权重矩阵;将权重矩阵和特征x相乘,以及将1-权重矩阵每个元素和特征y相乘后,将他们作为下一层的两端输入。第二层、第三层的中间过程与第一层一样,只
是第三层没有最后的sigmoid激活,将广播相加结果直接最为最终的aff融合结果。
[0078]
基于注意力机制的特征融合计算过程如下所示:
[0079]
全局平均池化是提取全局特征上下文中的步骤之一。全局特征上下文和局部特征上下文都是基于广播相加后的矩阵进行的。通过如下公式对广播相加后的矩阵中的中间特征进行全局平均池化:
[0080][0081]
上式中,g(x)表示全局平均池化操作;h*w表示特征图的大小;x
[:,i,j]
表示特征图所有坐标点(i,j)位置的像素信息;x表示特征图中的中间特征。
[0082]
通过如下公式提取广播相加后的矩阵中的中间特征的全局特征上下文:
[0083]
g(x)=b(dir(b(dr(g(x))))
[0084]
上式中,g(x)表示全局特征上下文;g(x)表示全局平均池化操作;dr表示一个通道降低层;b表示批标准化操作;r表示线性整流激活函数(relu);di表示一个通道增大层;x表示特征图中的中间特征。
[0085]
通过如下公式提取广播相加后的矩阵中的中间特征的局部特征上下文:
[0086]
l(x)=b(pwconv(r(b(pwconv(x)))),
[0087]
上式中,l(x)表示局部特征上下文;b表示批标准化操作;r表示线性整流激活函数;pwconv表示点级卷积;x表示特征图中的中间特征。
[0088]
通过如下公式计算通道权重:
[0089][0090]
上式中,w(x)表示通道权重;表示广播加权操作;l(x)表示局部特征上下文;g(x)表示全局特征上下文;x表示特征图中的中间特征;ss(.)表示sigmoid函数,将局部特征上下文与全局特征上下文的融合结果控制在[0,1]范围内。
[0091]
通过如下公式进行特征融合:
[0092][0093][0094][0095]
上式中,z1表示输入中间特征x和输入中间特征y的初步融合结果;表示;z2表示对初步融合结果z1的中间加工过程;z3表示基于注意力机制的最终特征融合结果;表示广播加权操作;表示元素间的智能乘积;ws(.)表示通道权重。
[0096]
对基于注意力机制融合后的特征图,进行多个全连接层和激活层操作(具体可设置成4次全连接操作和3次激活操作)后,最终获得当前失真图像的质量评价预测分数。
[0097]
提取出的三个层次特征矩阵(底层纹理特征、低级轮廓特征、高级全局语义特征),即,纹理特征矩阵图、低级轮廓特征矩阵图和全局语义特征图,通过多个全连接层和激活层后,得到三个中间预测分数s1,s2,s3,构成中间分数集(s1,s2,s3),本实施例采用中间分数集和真实标签分数(mos)之间的损失,以及质量评价预测分数与真实标签分数之间的损失进
行辅助训练。总体损失函数可以表示为:
[0098][0099]
上式中,ls表示中间分数集与真实标签分数之间的损失之和;le表示质量评价预测分数与真实标签分数之间的损失;si表示中间预测分数;se表示质量评价预测分数;bi表示中间预测分数在总体损失函数中的相对权重。
[0100]
通过不断减小客观预测分数(质量评价预测分数)与主观标签分数(真实标签分数)之间的损失,从而获得失真图像和质量评价预测分数之间的最佳映射关系。通过设计损失函数,即不断减小质量评价预测分数和真实标签分数之间的差异,提高本方法的质量评价准确度。为了提高本方法应对异常客观预测分数的鲁棒性,本实施例选择huber损失函数分别计算中间分数集与真实标签分数之间的损失,以及质量评价预测分数与真实标签分数之间的损失:
[0101][0102]
上式中,a表示一个预设超参数;s表示质量评价预测分数或中间预测分数;m表示真实标签分数。
[0103]bi
的计算过程如下:
[0104][0105]
s(.)是sigmoid函数,即
[0106]
若si和m之间的差异越小,则当前中间预测分数层对应的权重bi就应该越小。
[0107]
在训练过程中,通过最小化总体损失函数,以此获得最优参数,即:
[0108]
(b1,b2,b3)*=argmin(l(s1,s2,s3)),
[0109]
argmin()表示当总体损失l最小时b1、b2、b3的取值。
[0110]
眼视觉感知是一个层次化的处理过程,大脑皮层将人眼输入的视觉信号从局部底层信息到全局语义信息进行层次化的处理。基于深度学习的无参考图像质量评价方法中,若只使用单个神经网络来提取层次信息,不管是底层局部信息还是高级全局信息,均会缺乏明确的物理意义,严重影响网络对特征层次退化的分析。通过本实施例采用多模块的特征提取模式,不仅能获得纹理、边缘、全局语义等多层次特征,不同的特征矩阵(特征图)还能有明确的物理含义。
[0111]
面对提取出的多层次特征,若采取简单的连接操作,则会削弱多维层次特征对失真的表达能力,进而影响无参考图像质量评价模型对图像质量评价的能力,本实施例采用基于注意力机制的特征融合方法,在合理利用多层次特征的同时,还提高了多层次特征多图像内容的表达能力。
[0112]
该方法不仅解决了传统方法面对多失真类型时无法有效评估图像质量分数的问
题,还弥补了部分基于深度学习的方法所出现的层次特征物理意义不明确、层次特征信息未充分利用的情况。
[0113]
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

技术特征:
1.一种基于深度学习的无参考图像质量评价方法,其特征在于,包括如下步骤:s1、获取待预测图像质量的数据集图像;将所述数据集图像统一调整为第一预设尺寸;s2、将调整为第一预设尺寸的所述数据集图像输入特征提取网络中,提取出三类不同的特征图;所述特征提取网络包括:底层纹理特征提取网络、低级轮廓特征提取网络和高级全局语义特征提取网络;所述三类不同的特征图包括:纹理特征矩阵图、低级轮廓特征矩阵图和全局语义特征图;s3、分别将所述纹理特征矩阵图中的中间特征和所述低级轮廓特征矩阵图中的中间特征进行广播相加,进行特征融合,生成第一融合特征图;s4、将所述第一融合特征图中的中间特征和所述全局语义特征图中的中间特征进行广播相加,进行特征融合,生成最终融合特征图;s5、将所述最终融合特征图输入多个全连接层和激活层,得到所述待预测图像质量的数据集图像的质量评价预测分数。2.如权利要求1所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,所述步骤s3和步骤s4中的特征融合,包括:s11、分别将两个进行特征融合的特征图中的中间特征进行广播相加;s12、提取广播相加后的所述中间特征的全局特征上下文和局部特征上下文;根据所述全局特征上下文和局部特征上下文计算通道权重;根据所述通道权重,重新计算中间特征;将重新计算的中间特征替换步骤s11中的中间特征;s13、重复执行所述步骤s11~s12预设次数;将最后一次执行所述步骤s12提取出的全局特征上下文和局部特征上下文的广播相加结果,作为对所述两个进行特征融合的特征图的特征融合结果。3.如权利要求2所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,提取广播相加后的所述中间特征的全局特征上下文,包括:将广播相加后的所述中间特征进行全局平均池化;通过如下公式将广播相加后的的所述中间特征进行全局平均池化:上式中,g(x)表示全局平均池化操作;h*w表示特征图的大小;x
[:,i,j]
表示特征图所有坐标点(i,j)位置的像素信息;x表示特征图中的中间特征。4.如权利要求2所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,通过如下公式提取广播相加后的所述中间特征的全局特征上下文:g(x)=b(d
i
r(b(d
r
(g(x))))上式中,g(x)表示全局特征上下文;g(x)表示全局平均池化操作;d
r
表示一个通道降低层;b表示批标准化操作;r表示线性整流激活函数;d
i
表示一个通道增大层;x表示特征图中的中间特征。5.如权利要求2所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,通过如下公式提取广播相加后的所述中间特征的局部特征上下文:l(x)=b(pwconv(r(b(pwconv(x)))),
上式中,l(x)表示局部特征上下文;b表示批标准化操作;r表示线性整流激活函数;pwconv表示点级卷积;x表示特征图中的中间特征。6.如权利要求2所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,通过如下公式计算通道权重:上式中,w(x)表示通道权重;表示广播加权操作;l(x)表示局部特征上下文;g(x)表示全局特征上下文;x表示特征图中的中间特征;ss(.)表示sigmoid函数。7.如权利要求1所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,还包括:将所述三类不同的特征图分别输入多个全连接层和激活层,得到三个中间预测分数,构成中间分数集;通过计算所述中间分数集与真实标签分数之间的损失,以及所述质量评价预测分数与所述真实标签分数之间的损失,生成总体损失函数;根据所述总体损失函数对所述特征提取网络进行辅助训练。8.如权利要求7所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,所述总体损失函数为:上式中,l
s
表示中间分数集与真实标签分数之间的损失之和;l
e
表示质量评价预测分数与真实标签分数之间的损失;s
i
表示中间预测分数;s
e
表示质量评价预测分数;b
i
表示中间预测分数在总体损失函数中的相对权重。9.如权利要求8所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,通过如下公式计算l
s
和l
e
:上式中,a表示一个预设超参数;s表示质量评价预测分数或中间预测分数;m表示真实标签分数。10.如权利要求8所述的一种基于深度学习的无参考图像质量评价方法,其特征在于,通过如下公式计算b
i
:其中,上式中,si表示中间预测分数;m表示真实标签分数。

技术总结
本发明公开了一种基于深度学习的无参考图像质量评价方法,首先,将待预测图像质量的数据集图像通过底层纹理特征提取网络、低级轮廓特征提取网络和高级全局语义特征提取网络,由浅至深的提取失真图像的多层次特征;其次,采用基于注意力机制的特征融合方法,对提取出的多层次特征进行融合,以此增强多层次特征对图像内容的表达能力;最后,根据提取出的多层次特征和特征融合方法,设计适应于整体模型的损失函数,以此获得最优的质量评价预测分数。该方法不仅解决了传统方法面对多失真类型时无法有效评估图像质量分数的问题,还弥补了部分基于深度学习的方法所出现的层次特征物理意义不明确、层次特征信息未充分利用的情况。层次特征信息未充分利用的情况。层次特征信息未充分利用的情况。


技术研发人员:郎书君 周明亮 张太平 纪程 魏雪凯 尚赵伟 向涛 房斌
受保护的技术使用者:重庆大学
技术研发日:2022.07.14
技术公布日:2022/11/1
转载请注明原文地址: https://tieba.8miu.com/read-1190.html

最新回复(0)