1.本发明涉及计算机技术领域,尤其涉及一种模型训练方法、一种计算机设备、一种计算机可读存储介质。
背景技术:2.随着计算机技术的不断发展,图像识别技术遍布人们日常生活中的方方面面。例如,采用图像识别技术识别图像中的目标对象的数量。目前,通常采用目标检测技术识别图像中的目标对象,然后根据识别结果确定图像中所包含的目标对象的数量。
3.这种方式普遍适用于目标对象密度较低的场景,若图像中的目标对象密度较高,那么可能会导致识别效果不好,影响图像识别的准确率。
技术实现要素:4.本技术实施例提出了一种模型训练方法、计算机设备及存储介质,可以提高模型训练的准确性,从而更加准确的识别出目标对象的数量。
5.一方面,本技术实施例提供了一种模型训练方法,该方法包括:
6.获取样本图像;
7.对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;
8.调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;
9.基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。
10.一方面,本技术实施例提供了一种模型训练方法,该方法包括:
11.获取待处理图像;
12.调用对象识别模型对待处理图像包含的目标对象进行密度估计处理,得到待处理图像对应的目标密度图,对象识别模型是通过上述提及的模型训练方法得到的;
13.基于目标密度图,确定待处理图像中所包含的目标对象的数量。
14.一方面,本技术实施例提供了一种模型训练装置,该装置包括:
15.获取单元,用于获取样本图像;
16.处理单元,用于对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;
17.处理单元,还用于调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;
18.训练单元,用于基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。
19.在一种可能的实现方式中,处理单元对目标对象进行标注处理,得到样本图像对应的参考密度图,用于执行以下操作:
20.采用边缘标注算法,对目标对象进行边界点位置标注,得到目标对象对应的k个边界点,k为正整数;
21.对目标对象对应的k个边界点进行多边形拟合,得到用于表示目标对象形状的多边形对象;
22.基于多边形对象,确定样本图像对应的参考密度图。
23.在一种可能的实现方式中,多边形对象为椭圆;处理单元基于多边形对象,确定样本图像对应的参考密度图,用于执行以下操作:
24.基于椭圆的参数,对目标对象进行高斯分布表达,得到高斯分布表达式,椭圆的参数包括以下任一项或多项:长半轴、短半轴、中心点、长半轴与水平方向的夹角;
25.基于高斯分布表达式,确定样本图像对应的参考密度图。
26.在一种可能的实现方式中,处理单元基于高斯分布表达式,确定样本图像对应的参考密度图,用于执行以下操作:
27.基于高斯分布表达式,确定多边形对象内的各个像素点的密度值;
28.对多边形对象内的各个像素点的密度值进行归一化处理,得到样本图像对应的参考密度图。
29.在一种可能的实现方式中,训练单元基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,用于执行以下操作:
30.基于参考密度图和所述预测密度图之间的差异数据,确定神经网络模型的网络损失;
31.基于网络损失对神经网络模型进行迭代调整处理,若调整后的神经网络模型满足模型收敛条件,则将调整后的神经网络模型作为对象识别模型。
32.在一种可能的实现方式中,训练单元基于参考密度图和预测密度图之间的差异数据,确定神经网络模型的网络损失,用于执行以下操作:
33.基于参考密度图内各个像素点和预测密度图内各个像素点之间的像素值差值,获取像素尺度损失;
34.基于参考密度图和预测密度图之间针对目标对象的数量差值,获取计数尺度损失;
35.根据像素尺度损失和计数尺度损失,确定神经网络模型的网络损失。
36.一方面,本技术实施例提供了一种模型训练装置,该装置包括:
37.获取单元,用于获取待处理图像;
38.处理单元,用于调用对象识别模型对待处理图像包含的目标对象进行密度估计处理,得到待处理图像对应的目标密度图,对象识别模型是通过上述提及的模型训练方法得到的;
39.确定单元,用于基于目标密度图,确定待处理图像中所包含的目标对象的数量。
40.在一种可能的实现方式中,确定单元基于目标密度图,确定待处理图像中所包含的目标对象的数量,用于执行以下操作:
41.获取目标密度图内各个像素点对应的密度值;
42.将各个像素点对应的密度值进行求和运算,得到待处理图像中所包含的目标对象的数量。
43.一方面,本技术实施例提供一种计算机设备,该计算机设备包括存储器和处理器,存储器存储有一条或多条计算机程序,计算机程序被处理器执行时,使得处理器执行上述的模型训练方法。
44.一方面,本技术实施例提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被计算机设备的处理器读取并执行时,使得计算机设备执行上述的模型训练方法。
45.一方面,本技术实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机程序,该计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得该计算机设备执行上述的模型训练方法。
46.本技术实施例中,获取样本图像;对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。由此可见,本技术可以对样本图像中的目标对象进行标注处理,从而得到样本图像对应的参考密度图,然后通过参考密度图训练对象识别模型,使得对象识别模型可以较为准确的识别得到密度图,从而基于密度图来确定目标对象的数量,相比于直接识别出图像中的目标对象而言,本技术可以较为准确的确定出目标对象的数量,使得模型训练过程更加准确,基于更加准确的对象识别模型可以更准确地识别出目标对象的数量。
附图说明
47.为了更清楚地说明本技术实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
48.图1是本技术实施例提供的一种模型训练系统的架构示意图;
49.图2是本技术实施例提供的一种模型训练方法的流程示意图;
50.图3a是本技术实施例提供的一种样本图像的场景示意图;
51.图3b是本技术实施例提供的一种边缘标注的场景示意图;
52.图4a是本技术实施例提供的一种参考密度图的示意图;
53.图4b是本技术实施例提供的另一种参考密度图的示意图;
54.图5a是本技术实施例提供的一种对象识别模型的原理示意图;
55.图5b是本技术实施例提供的一种对象识别模型的网络结构示意图;
56.图6是本技术实施例提供的一种模型训练方法的流程示意图;
57.图7是本技术实施例提供的一种模型应用的场景示意图;
58.图8是本技术实施例提供的一种模型训练装置的结构示意图;
59.图9是本技术实施例提供的一种模型训练装置的结构示意图;
60.图10是本技术实施例提供的一种计算机设备的结构示意图。
具体实施方式
61.这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本技术相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本技术的一些方面相一致的装置和方法的例子。
62.本技术实施例提出一种模型训练方案,该方案可以训练得到对象识别模型,对象识别模型可以用于识别图像中的目标对象的数量,基于参考密度图进行计数的方式,可以提高识别目标对象的数量的准确性。其中,该方案的大致原理如下:获取样本图像;对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。
63.由此可见,本技术可以对样本图像中的目标对象进行标注处理,从而得到样本图像对应的参考密度图,然后通过参考密度图训练对象识别模型,使得对象识别模型可以较为准确的识别得到密度图,从而基于密度图来确定目标对象的数量,相比于直接识别出图像中的目标对象而言,本技术可以较为准确的确定出目标对象的数量,使得模型训练过程更加准确,基于更加准确的对象识别模型可以更准确地识别出目标对象的数量。
64.接下来,结合本技术涉及的技术术语对上述提及的模型训练方案进行介绍:
65.一、人工智能:
66.人工智能(artificial intelligence,ai)技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大模型训练技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
67.在一种可能的实现方式中,本技术实施例提供的模型训练方案可以与人工智能领域下属的机器学习技术相结合。具体来说,可以通过机器学习技术训练神经网络模型,得到对象识别模型。然后,可以将训练好的对象识别模型应用于对象识别场景、对象计数等各类机器学习场景中,从而可以识别得到目标对象的数量。其中,所谓机器学习(machine learning,ml)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
68.二、云技术:
69.云计算(cloud computing)是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
70.在一种可能的实现方式中,在执行本技术的模型训练方案时,调用神经网络模型
对样本图像进行密度估计处理,得到样本图像对应的预测密度图,这个过程涉及较大规模计算,需要较大的算力和存储空间,因此可以由计算机设备通过云计算技术获取足够算力和存储空间,进而执行本技术中所涉及到的确定样本图像对应的预测密度图的具体过程。
71.三、区块链:
72.区块链(blockchain)是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
73.本技术的模型训练方案可与区块链技术相结合,例如可以将样本图像、参考密度图、预测密度图等数据上传至区块链中进行保存,可以保证区块链上的数据不易被篡改,从而确保模型训练过程的安全性。
74.特别需要说明的是,在本技术的后续具体实施方式中,涉及到对象信息(例如标识、名称等)等相关的数据,当本技术以上实施例运用到具体产品或技术中时,需要获得对象许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
75.请参见图1,图1是本技术实施例提供的一种模型训练系统的架构示意图。该模型训练系统的架构图包括:服务器140以及终端设备集群,其中,终端设备集群可以包括:终端设备110、终端设备120、终端设备130等等。终端设备集群与服务器140之间可以通过有线或无线通信方式进行直接或间接地连接,本技术在此不做限制。
76.图1所示的服务器140可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn(content delivery network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
77.图1所示的终端设备110、终端设备120、终端设备130等可以是手机、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(mid,mobile internet device)、车辆、车载设备、路边设备、飞行器、可穿戴设备,例如智能手表、智能手环、计步器等,等具有模型训练功能的智能设备。
78.在一种可能的实现方式中,以终端设备110和服务器140共同执行上述所提及的模型训练方案为例,分别对终端设备110和服务器140所执行的具体操作进行相关说明。其中,终端设备110可以获取样本图像。然后,终端设备110可以将样本图像发送至服务器140。服务器140可以对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图。然后,服务器140还可以调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图。最后,服务器140还可以基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型。最后,服务器140可以将对象识别模型发送至终端设备110,以使终端设备110调用对象识别模型用于识别图像中目标对象的数量。
79.应当理解,上述只是示例性说明终端设备110和服务器140所执行的具体操作。在另一种可能的实现方式中,对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图,也可以由终端设备110来执行;从而终端设备110将样本图像对应的参考密
度图发送至服务器140,以使服务器140调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图。在又一种可能的实现方式中,上述所提及的模型训练方案可以由模型训练系统中的服务器140、或者终端设备110单独执行,本技术实施例对此并不做具体限定。
80.在一种可能的实现方式中,可以将本技术实施例提供的模型训练系统部署在区块链上,例如可以将服务器140、以及终端设备集群中包括的每个终端设备(终端设备110、终端设备120、终端设备130等)均当成区块链的节点设备,共同构成区块链网络。因此本技术中的模型训练流程可以在区块链上执行,这样既可以保证模型训练流程的公平公正化,同时可以使得模型训练流程具备可追溯性,从而提升模型训练流程的安全性。
81.可以理解的是,本技术实施例描述的系统架构示意图是为了更加清楚的说明本技术实施例的技术方案,并不构成对于本技术实施例提供的技术方案的限定,本领域普通技术人员可知,随着系统架构的演变和新业务场景的出现,本技术实施例提供的技术方案对于类似的技术问题,同样适用。
82.基于以上分析,下面结合图2对本技术的模型训练方法进行描述。请参见图2,图2是本技术实施例提供的一种模型训练方法的流程示意图。该模型训练方法可由上述所提及的计算机设备执行,计算机设备可以为终端设备或服务器。参见图2所示,该模型训练方法可包括步骤s201~s204:
83.s201:获取样本图像。
84.本技术实施例中,样本图像可以包括至少一个目标对象。其中,目标对象的类型可以包括但不限于:动物、人、花、草等对象,本技术实施例并不对目标对象的类型进行具体限定。其中,为方便阐述,本技术后续实施例中以目标对象的类型为动物类型为例进行相应说明,具体来说,动物类型的目标对象例如可以为:猫、狗、猪、兔等。应当理解,本技术实施例中所提及的样本图像所包括的目标对象的数量较多,便于后续基于较多数量的目标对象的样本图像,从而得到对应的密度图。
85.s202:对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图。
86.在一种可能的实现方式中,计算机设备对目标对象进行标注处理,得到样本图像对应的参考密度图,可以包括:采用边缘标注算法,对目标对象进行边界点位置标注,得到目标对象对应的k个边界点,k为正整数;根据目标对象对应的k个边界点,确定样本图像对应的参考密度图。
87.举例来说,请参见图3a,图3a是本技术实施例提供的一种样本图像的场景示意图。如图3a所示,若样本图像所包含的目标对象为猪只s100,那么可以基于边缘标注算法对猪只图片中的猪只s100进行边界点位置标注,得到猪只s100对应的k个边界点。需要说明的是,每个猪只上标注的边界点的数量k可以按照目标对象的类型自定义设置,例如目标对象的类型为椭圆,则k可以大于或等于5;又如目标对象的类型为六边形,则k可以大于或等于6;还如目标对象的类型为三角形,则k可以大于或等于3。
88.在一种可能的实现方式中,计算机设备根据目标对象对应的k个边界点,确定样本图像对应的参考密度图,可以包括:对目标对象对应的k个边界点进行多边形拟合,得到用于表示目标对象形状的多边形对象。基于多边形对象,对目标对象进行高斯分布表达,得到
高斯分布表达式;基于高斯分布表达式,确定样本图像对应的参考密度图。
89.具体来说,上述所提及的多边形对象可以包括但不限于:椭圆、矩形、圆、三角形、四边形、五边形等等。举例来说,假设目标对象为猪只,那么猪只对应的多边形对象可以为椭圆。那么,对于猪只图片的每个猪只,分别对其标注的边界点进行椭圆拟合,从而可以得到表示猪只形状的椭圆的参数。其中,椭圆的参数可以包括但不限于:椭圆中心点坐标(xc、yc)、长轴长度(ra)、短轴长度(rb)以及倾斜角度(θ)。具体地,可以基于标注的每个猪只的边界点的位置坐标,通过最小二乘法求解得到每个猪只对应的椭圆的参数。
90.举例来说,请参见图3b,图3b是本技术实施例提供的一种边缘标注的场景示意图。例如数量k可以等于5,如图3b所示,基于边缘标注方法可以对图3a中猪只图片中的每个猪只进行标注,从而得到每个猪只对应的5个边界点,基于各个猪只的相应边界点进行椭圆拟合,从而得到多个椭圆对象,如s001、s002、s003、s004、s005等等。
91.基于上述方式,对目标对象先进行边缘标注,然后基于边缘标注结果拟合相应的多边形对象,该多边形对象可以用于表达目标对象的形状,从而可以利用便于计算机设备处理的多边形对象(例如椭圆)来近似表达实际生活中的目标对象(例如猪只),降低了图像处理过程中的复杂度,从而可以提高图像处理的效率。
92.进一步地,当多边形对象为椭圆,计算机设备基于多边形对象(椭圆),对目标对象进行高斯分布表达,得到高斯分布表达式的具体过程如下:基于椭圆的参数,对目标对象进行高斯分布表达,得到高斯分布表达式,其中,椭圆的参数包括以下任一项或多项:长半轴、短半轴、中心点、长半轴与水平方向的夹角。
93.举例来说,由于高斯分布在3σ内的值总和可以达到所有范围值总和的99.7%,因此本技术实施例中可以近似将定位猪只的椭圆视为高斯分布的3σ边界。进而得到猪只的高斯分布的参数与椭圆的参数之间的关系如下公式1.1-1.5所示:
[0094][0095]
μ=(xc',yc')=(xc/8,yc/8)
ꢀꢀꢀꢀ
(1.2)
[0096]
σ1=ra'/3=ra/24
ꢀꢀꢀꢀ
(1.3)
[0097]
σ2=rb'/3=rb/24
ꢀꢀꢀꢀ
(1.4)
[0098][0099]
上述公式1.1-1.5中,(xc,yc)为椭圆的中心点,(ra,rb)为椭圆的长半轴和短半轴,θ为椭圆长半轴与水平方向的顺时针角度,g则为高斯分布表达式的标准函数。通过这种方式,可以对样本图像中的目标对象进行标注后,拟合为可以用于表示对象形状的多边形对象。继而依据多边形对象的参数(例如椭圆的参数)来进行高斯分布表达,得到相应的高斯分布表达式。由于多边形拟合可以得到用于表达目标对象形状的多边形对象,基于多边形对象的参数来确定高斯分布表达式,由于高斯分布表达式可以用于反映目标对象的密度属性,因此后续基于更加准确的高斯分布表达式,也可以较为准确的确定出相应的密度图。
[0100]
在一种可能的实现方式中,计算机设备基于高斯分布表达式,确定样本图像对应的参考密度图,可以包括:基于高斯分布表达式,确定多边形对象内的各个像素点的密度
值;对多边形对象内的各个像素点的密度值进行归一化处理,得到样本图像对应的参考密度图。
[0101]
具体来说,通过以上公式,在计算得到μ、σ1、σ2以及∑i后,将椭圆内的每一个像素点的位置坐标代入公式,则可以计算椭圆内每个像素点对应的密度值。
[0102]
例如,椭圆内任一像素点的位置坐标可以表示为(x0,y0),然后基于位置坐标(x0,y0)可以计算得到该像素点的矢量所谓矢量是指具有大小和方向的量,具体来说,根据位置坐标(x0,y0)可以计算矢量的大小为以及,根据位置坐标(x0,y0)还可以计算矢量的方向。进而可以得到每个像素点的矢量接下来,将任一个像素点的矢量μ、σ1、σ2以及∑i带入公式(1.1),即可得到椭圆内任一个像素点对应的密度值如下:
[0103][0104]
其中,高斯分布表达式的计算范围可以简单的根据3σ原则限定在水平方向[x
c-3σ
11
,xc+3σ
11
],竖直方向[y
c-3σ
22
,yc+3σ
22
]。
[0105]
最后,为保证椭圆内的总和为1,需要对多边形对象内的各个像素点的密度值进行归一化,因此最终得到的样本图像对应的参考密度图表示为如下公式2所示:
[0106][0107]
其中,zi为计算得到的所有像素点对应的密度值之和。
[0108]
在一种可能的实现方式中,计算机设备基于高斯分布表达式,确定样本图像对应的参考密度图,可以包括:基于高斯分布表达式,确定多边形对象内的各个像素点的密度值;对多边形对象内的各个像素点的密度值进行归一化处理,得到样本图像对应的参考密度图。基于上述方式,对密度值进行归一化处理,可以简化图像处理流程,从而降低运算复杂度,提高处理效率。
[0109]
举例来说,请参见图4a,图4a是本技术实施例提供的一种参考密度图的示意图。如图4a所示,根据上述方式计算得到的参考密度图可以看出,椭圆内部的像素点对应的密度值大于椭圆外部的像素点对应的密度值。进一步地,请参见图4b,图4b是本技术实施例提供的另一种参考密度图的示意图。如图4b所示的参考密度图是采用传统的高斯核卷积方式所生成的密度图,所谓高斯核卷积方式的原理如下:只需考虑目标对象的位置,高斯核的大小取决于目标对象之间的距离。通过对比图4a所示的参考密度图(本技术实施例得到的)和图4b所示的参考密度图(传统方式得到的),可以看出本技术得到的参考密度图中的目标对象对应的区域比传统方式得到的参考密度图中的目标对象对应的区域更加清晰,从而提高了基于参考密度图识别目标对象数量的准确性。
[0110]
s203:调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图。
[0111]
本技术实施例中,神经网络模型可以包括但不限于:卷积神经网络
(convolutional neural networks,cnn)模型、深度神经网络(deep neural networks,dnn)模型,等等具有密度估计处理的网络模型,本技术实施例并不对神经网络模型的模型结构做具体限定。
[0112]
举例来说,本技术实施例中可以采用dnn深度神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图。请参见图5a,图5a是本技术实施例提供的一种对象识别模型的原理示意图。如图5a所示,对象识别模型的输入为样本图像,经过模型的处理(例如卷积处理、全局平均池化处理、归一化处理)后,即可输出样本图像对应的预测密度图。
[0113]
进一步地,本技术实施例中所提及的对象识别模型是基于多个选择性核卷积、瓶颈层、残差块构成的多分支网络结构。其中,选择性核卷积用于实现卷积核大小的自适应调整;瓶颈层和残差块用于降低网络参数以及提高对象识别模型的网络特征表达能力。
[0114]
具体来说,综合考虑现有的参考密度图回归网络以及其优势并对其进行改进融合,请参见图5b,图5b是本技术实施例提供的一种对象识别模型的网络结构示意图。如图5b所示,本技术中选择selective kernel convolution(sk conv,选择性核卷积)为基础的多分支网络结构实现卷积核大小的自适应调整,例如sk_1、sk_2、sk_3等等。同时,本技术还采用上采样叠加深层特征的方式来实现多层特征融合,以使得到高层次特征。即sk_2模块输出的特征与对sk_3模块上采样后输出的特征进行拼接后可以得到高层次特征,该高层次特征后续可用于输入至后续网络模块中(例如后续所提及的bottleneck模块)。另外,网络的设计采用常用的bottleneck(沙漏型结构:3
×
3conv9,3
×
3conv10,1
×
1conv11,1
×
1conv12)和residual block(残差块)等结构,从而可以在降低网络参数的同时提高网络特征的表达能力。
[0115]
再进一步地,将样本图像输入至对象识别模型进行密度估计处理后,各个网络模块的尺寸大小如下表1所示:
[0116]
表1.对象识别模型中各个网络模块对应的尺寸大小
[0117]
layer name(模块名称)//stride(维度)output size(输出尺寸)input imageb
×3×
768
×
7687
×
7conv1//2b
×
16
×
384
×
384max pooling//2b
×
16
×
192
×
192sk_1//1b
×
32
×
192
×
192sk_2//2b
×
64
×
96
×
96sk_3//2b
×
128
×
48
×
483
×
3transposed conv1//2b
×
64
×
96
×
96concat(拼接)b
×
128
×
96
×
963
×
3conv9//1b
×
64
×
96
×
963
×
3conv10//1b
×
64
×
96
×
961
×
1conv11//1b
×
512
×
96
×
961
×
1conv12//1b
×1×
96
×
96
[0118]
通过上述方式,采用改进的卷积神经网络模型作为对象识别模型的模型结构,通过采用selective kernel convolution为基础的多分支网络结构实现卷积核大小的自适
应调整,同时采用上采样叠加深层特征实现多层特征融合以利用高层次特征,使得本方案中的对象识别模型能够具有生成更准确的密度图的能力。
[0119]
s204:基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。
[0120]
在一种可能的实现方式中,计算机设备基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,可以包括:基于参考密度图和预测密度图之间的差异数据,确定神经网络模型的网络损失;基于网络损失对神经网络模型进行迭代调整处理,若调整后的神经网络模型满足模型收敛条件,则将调整后的神经网络模型作为对象识别模型。
[0121]
其中,所谓模型收敛条件可以是指:当神经网络模型的训练次数达到预设训练阈值时,例如100次,则神经网络模型满足模型收敛条件;或者,当每个样本图像对应的预测密度图和每个样本图像对应的参考密度图之间的误差小于误差阈值时,则神经网络模型满足模型收敛条件;或者,当神经网络模型相邻两次训练得到的每个样本图像对应的参考密度图之间的变化小于变化阈值时,则神经网络模型满足模型收敛条件。
[0122]
具体来说,计算机设备基于参考密度图和预测密度图之间的差异数据,确定神经网络模型的网络损失,可以包括:基于参考密度图内各个像素点和预测密度图内各个像素点之间的像素值差值,获取像素尺度损失;基于参考密度图和预测密度图之间针对目标对象的数量差值,获取计数尺度损失;根据像素尺度损失和计数尺度损失,确定神经网络模型的网络损失。
[0123]
举例来说,计算网络损失的表达式如下公式3.1-3.3所示:
[0124][0125][0126]
loss=l
pixel
+λl
count
ꢀꢀ
(3.3)
[0127]
其中,l
pixel
为像素尺度损失,用于表征两张图片(参考密度图和预测密度图)在各个像素点位置上的差值;l
count
为计数尺度损失,用于表征两张图片(参考密度图和预测密度图)在计数上的差值。d(x,y)和分别代表预测密度图和参考密度图内的各个像素点的密度值;mean表示求平均值。另外,像素尺度损失和计数尺度损失的加权系数可以自定义设置,本技术实施例对此不做具体限定。
[0128]
可以理解的是,本技术实施例在计算网络损失时,由于同时考虑像素尺度的损失(像素尺度损失)和全局尺度的计数损失(计数尺度损失),并且通过网络损失对猪只的位置和数量进行约束,可以保证神经网络模型在预测密度图与参考密度图接近的前提下获取更小的计数误差,从而提高训练后得到的对象识别模型的准确性,后续基于更加准确的对象识别模型可以较为准确的识别得到图像中目标对象的数量。
[0129]
本技术实施例中,获取样本图像;对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。由此可见,本技术可以对样本
图像中的目标对象进行标注处理,从而得到样本图像对应的参考密度图,然后通过参考密度图训练对象识别模型,使得对象识别模型可以较为准确的识别得到密度图,从而基于密度图来确定目标对象的数量,相比于直接识别出图像中的目标对象而言,本技术可以较为准确的确定出目标对象的数量,从而提高模型训练的准确性。同时,通过selective kernel convolution为基础的多分支网络结构实现卷积核大小的自适应调整,采用上采样叠加深层特征实现多层特征融合以利用高层次特征,使得本方案中的对象识别模型能够具有生成更准确的密度图的能力,从而提高了确定目标对象数量的准确性。
[0130]
请参见图6,图6是本技术实施例提供的一种模型训练方法的流程示意图。如图6所示,该模型训练方法可由上述所提及的计算机设备执行,计算机设备可以为终端设备或服务器。
[0131]
参见图6所示,该模型训练方法可包括步骤s601~s603:
[0132]
s601:获取待处理图像。
[0133]
本技术实施例中,样本图像可以包括至少一个目标对象。其中,目标对象的类型可以包括但不限于:动物、人、花、草等对象,本技术实施例并不对目标对象的类型进行具体限定。其中,为方便阐述,本技术后续实施例中以目标对象的类型为动物类型为例进行相应说明,具体来说,动物类型的目标对象例如可以为:猫、狗、猪、兔等。
[0134]
s602:调用对象识别模型对待处理图像包含的目标对象进行密度估计处理,得到待处理图像对应的目标密度图,对象识别模型是基于样本图像以及样本图像对应的参考密度图,对神经网络模型训练得到的,参考密度图是通过对样本图像包含的目标对象进行标注处理得到的。
[0135]
具体来说,计算机设备可以调用上述训练好的对象识别模型,对待处理图像包含的目标对象进行密度估计处理,从而得到待处理图像对应的目标密度图。
[0136]
由上述可知,本技术实施例所提及的对象识别模型是通过selective kernel convolution(选择性核卷积)为基础的多分支网络结构,从而可以实现卷积核大小的自适应调整,同时采用上采样叠加深层特征实现多层特征融合以利用高层次特征,使得本方案中的对象识别模型能够生成更加准确的密度图。
[0137]
s603:基于目标密度图,确定待处理图像中所包含的目标对象的数量。
[0138]
本技术实施例中,所谓密度图可以用于反映每个像素点的密度值的图片,即密度图可以包括每个像素点的密度值。在一种可能的实现方式中,计算机设备基于目标密度图,确定待处理图像中所包含的目标对象的数量,可以如公式(4)所示:
[0139][0140]
其中,d(x)表示目标密度图中各个像素点对应的密度值。可以理解的是,由前述实施例可知,密度图内每个多边形对象(例如椭圆)内的像素点的密度值总和为1,那么,将目标密度图中各个像素点对应的密度值进行求和计算后得到的求和结果,即可大致视为椭圆的数量,椭圆的数量即可视为目标对象的数量。
[0141]
按照上述描述,接下来结合实例对本技术实施例确定待处理图像中目标对象的数量进行举例说明。请参见图7,图7是本技术实施例提供的一种模型应用的场景示意图。如图7所示,例如,输入的待处理图像如图7中图片701a所示,根据图片701b所示的密度图确定出
来的目标对象的真实数量可以为14,根据图片701c所示的密度图确定出来的目标对象的预测数量可以为13.75;又如,输入的待处理图像如图7中图片702a所示,根据图片702b所示的密度图确定出来的目标对象的真实数量可以为23,根据图片702c所示的密度图确定出来的目标对象的预测数量可以为23.36;例如,输入的待处理图像如图7中图片703a所示,根据图片703b所示的密度图确定出来的目标对象的真实数量可以为42,根据图片703c所示的密度图确定出来的目标对象的预测数量可以为41.15。
[0142]
在一种可能的实现方式中,计算机设备还可以基于目标密度图,确定待处理图像包含的目标对象的位置数据。具体来说,计算机设备可以对目标密度图进行分割处理,得到多个密度图块;然后,计算机设备对每个密度图块内的各个目标对象进行聚类处理,得到每个密度图块的聚类结果;最后,计算机设备可以基于每个密度图块的聚类结果,确定待处理图像包含的目标对象的位置数据。
[0143]
接下来,对如何基于目标密度图得到目标对象的位置数据的过程进行详细说明:
[0144]
(1)对目标密度图进行分割处理,得到多个密度图块。
[0145]
具体来说,计算机设备可以对目标密度图进行分割处理,得到多个密度图块,具体可以包括:对目标密度图进行阈值分割处理,从而得到多个密度图块。所谓阈值分割是一种基于图像区域的分割技术,其原理是把图像像素点分为若干类,例如阈值分割可以包括但不限于:otsu(大津法或最大类间方差法)阈值分割、自适应阈值分割、最大熵阈值分割法、迭代阈值分割等等。
[0146]
本技术实施例中,基于阈值分割技术,可以将目标密度图中的像素点进行划分,从而得到多个互不相连的密度图块,可以理解的是,多个密度图块的区域面积可以相同,也可以不相同。基于阈值分割方式,得到多个密度图块,后续基于各个密度图块为单位进行处理,可以减少聚类处理的复杂度,从而提高图像处理的效率。
[0147]
(2)对每个密度图块内的各个目标对象进行聚类处理,得到每个密度图块的聚类结果。
[0148]
具体来说,本技术实施例中,每个密度图块内包含至少一个目标对象。其中,计算机设备可以基于聚类算法对每个密度图块内的各个目标对象进行聚类处理,从而得到每个密度图块的聚类结果。举例来说,聚类算法可以包括但不限于:k-means聚类算法、均值偏移聚类算法、dbscan聚类算法(density-based spatial clustering of applications with noise,一种基于密度的聚类算法)、层次聚类算法。其中,本技术实施例中聚类算法可以为k-means聚类算法。
[0149]
通过利用k-means聚类算法对每个密度图块内的各个目标对象进行聚类处理这种方式,通过这种方式,利用聚类算法通过分割目标对象的分布区域以及给予更可靠的初始聚类点来保证聚类处理的精度,即从密度值较大的像素点中确定出n个(即目标密度图块中目标对象的数量)初始聚类点。这样可以使得聚类处理的过程更偏向于密度值较高的位置,从而保证聚类位置的精度更高。
[0150]
(3)基于每个密度图块的聚类结果,确定待处理图像包含的目标对象的位置数据。
[0151]
可以理解的是,通过上述方式,可以得到每个密度图块的聚类结果。其中,任一个密度图块的聚类结果可以包括聚类中心点的位置数据(例如位置坐标)。具体来说,计算机设备基于每个密度图块的聚类结果,确定待处理图像包含的目标对象的位置数据,可以包
括:将每个密度图块中聚类中心点的位置数据作为待处理图像包含的目标对象的位置数据。
[0152]
本技术实施例中,基于上述实施例训练得到的对象识别模型可以用于识别图像中目标对象的数量。其中,由于采用了改进的对象识别模型,并且基于网络损失对目标对象的位置和数量进行约束,能够减小对目标对象进行计数的误差,从而提高了识别得到的目标对象的数量的准确性。
[0153]
请参见图8,图8是本技术实施例提供的一种模型训练装置的结构示意图。该模型训练装置800可应用于前述实施例中的计算机设备(例如终端设备或服务器)。模型训练装置800可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该模型训练装置800为一个应用软件;该模型训练装置800可以用于执行本技术实施例提供的数据处理方法中的相应步骤。该模型训练装置800可包括:
[0154]
获取单元801,用于获取样本图像;
[0155]
处理单元802,用于对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;
[0156]
处理单元802,还用于调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;
[0157]
训练单元803,用于基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。
[0158]
在一种可能的实现方式中,处理单元802对目标对象进行标注处理,得到样本图像对应的参考密度图,用于执行以下操作:
[0159]
采用边缘标注算法,对目标对象进行边界点位置标注,得到目标对象对应的k个边界点,k为正整数;
[0160]
对目标对象对应的k个边界点进行多边形拟合,得到用于表示目标对象形状的多边形对象;
[0161]
基于多边形对象,确定样本图像对应的参考密度图。
[0162]
在一种可能的实现方式中,多边形对象为椭圆;处理单元802基于多边形对象,确定样本图像对应的参考密度图,用于执行以下操作:
[0163]
基于椭圆的参数,对目标对象进行高斯分布表达,得到高斯分布表达式,椭圆的参数包括以下任一项或多项:长半轴、短半轴、中心点、长半轴与水平方向的夹角;
[0164]
基于高斯分布表达式,确定样本图像对应的参考密度图。
[0165]
在一种可能的实现方式中,处理单元802基于高斯分布表达式,确定样本图像对应的参考密度图,用于执行以下操作:
[0166]
基于高斯分布表达式,确定多边形对象内的各个像素点的密度值;
[0167]
对多边形对象内的各个像素点的密度值进行归一化处理,得到样本图像对应的参考密度图。
[0168]
在一种可能的实现方式中,训练单元803基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,用于执行以下操作:
[0169]
基于参考密度图和所述预测密度图之间的差异数据,确定神经网络模型的网络损失;
[0170]
基于网络损失对神经网络模型进行迭代调整处理,若调整后的神经网络模型满足模型收敛条件,则将调整后的神经网络模型作为对象识别模型。
[0171]
在一种可能的实现方式中,训练单元803基于参考密度图和预测密度图之间的差异数据,确定神经网络模型的网络损失,用于执行以下操作:
[0172]
基于参考密度图内各个像素点和预测密度图内各个像素点之间的像素值差值,获取像素尺度损失;
[0173]
基于参考密度图和预测密度图之间针对目标对象的数量差值,获取计数尺度损失;
[0174]
根据像素尺度损失和计数尺度损失,确定神经网络模型的网络损失。
[0175]
本技术实施例中,获取样本图像;对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。由此可见,本技术可以对样本图像中的目标对象进行标注处理,从而得到样本图像对应的参考密度图,然后通过参考密度图训练对象识别模型,使得对象识别模型可以较为准确的识别得到密度图,从而基于密度图来确定目标对象的数量,相比于直接识别出图像中的目标对象而言,本技术可以较为准确的确定出目标对象的数量,使得模型训练过程更加准确,基于更加准确的对象识别模型可以更准确地识别出目标对象的数量。
[0176]
请参见图9,图9是本技术实施例提供的一种模型训练装置的结构示意图。该模型训练装置900可应用于前述实施例中的计算机设备(例如终端设备或服务器)。模型训练装置900可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该模型训练装置900为一个应用软件;该模型训练装置900可以用于执行本技术实施例提供的数据处理方法中的相应步骤。该模型训练装置900可包括:
[0177]
获取单元901,用于获取待处理图像;
[0178]
处理单元902,用于调用对象识别模型对待处理图像包含的目标对象进行密度估计处理,得到待处理图像对应的目标密度图,对象识别模型是通过上述提及的模型训练方法得到的;
[0179]
确定单元903,用于基于目标密度图,确定待处理图像中所包含的目标对象的数量。
[0180]
在一种可能的实现方式中,确定单元903基于目标密度图,确定待处理图像中所包含的目标对象的数量,用于执行以下操作:
[0181]
获取目标密度图内各个像素点对应的密度值;
[0182]
将各个像素点对应的密度值进行求和运算,得到待处理图像中所包含的目标对象的数量。
[0183]
本技术实施例中,基于上述实施例训练得到的对象识别模型可以用于识别图像中目标对象的数量。其中,由于采用了改进的对象识别模型,并且基于网络损失对目标对象的位置和数量进行约束,能够减小对目标对象进行计数的误差,从而提高了识别得到的目标对象的数量的准确性。
[0184]
请参见图10,图10是本技术实施例提供的一种计算机设备的结构示意图。该计算
机设备1000用于执行前述方法实施例中计算机设备(终端设备或服务器)所执行的步骤,该计算机设备1000包括:一个或多个处理器1010;一个或多个输入设备1020,一个或多个输出设备1030和存储器1040。上述处理器1010、输入设备1020、输出设备1030和存储器1040通过总线1050连接。存储器1040用于存储计算机程序,所述计算机程序包括程序指令,处理器1010用于调用存储器1040存储的程序指令,执行以下操作:
[0185]
获取样本图像;
[0186]
对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;
[0187]
调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;
[0188]
基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。
[0189]
在一种可能的实现方式中,处理器1010对目标对象进行标注处理,得到样本图像对应的参考密度图,用于执行以下操作:
[0190]
采用边缘标注算法,对目标对象进行边界点位置标注,得到目标对象对应的k个边界点,k为正整数;
[0191]
对目标对象对应的k个边界点进行多边形拟合,得到用于表示目标对象形状的多边形对象;
[0192]
基于多边形对象,确定样本图像对应的参考密度图。
[0193]
在一种可能的实现方式中,多边形对象为椭圆;处理器1010基于多边形对象,确定样本图像对应的参考密度图,用于执行以下操作:
[0194]
基于椭圆的参数,对目标对象进行高斯分布表达,得到高斯分布表达式,椭圆的参数包括以下任一项或多项:长半轴、短半轴、中心点、长半轴与水平方向的夹角;
[0195]
基于高斯分布表达式,确定样本图像对应的参考密度图。
[0196]
在一种可能的实现方式中,处理器1010基于高斯分布表达式,确定样本图像对应的参考密度图,用于执行以下操作:
[0197]
基于高斯分布表达式,确定多边形对象内的各个像素点的密度值;
[0198]
对多边形对象内的各个像素点的密度值进行归一化处理,得到样本图像对应的参考密度图。
[0199]
在一种可能的实现方式中,处理器1010基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,用于执行以下操作:
[0200]
基于参考密度图和所述预测密度图之间的差异数据,确定神经网络模型的网络损失;
[0201]
基于网络损失对神经网络模型进行迭代调整处理,若调整后的神经网络模型满足模型收敛条件,则将调整后的神经网络模型作为对象识别模型。
[0202]
在一种可能的实现方式中,处理器1010基于参考密度图和预测密度图之间的差异数据,确定神经网络模型的网络损失,用于执行以下操作:
[0203]
基于参考密度图内各个像素点和预测密度图内各个像素点之间的像素值差值,获取像素尺度损失;
[0204]
基于参考密度图和预测密度图之间针对目标对象的数量差值,获取计数尺度损
失;
[0205]
根据像素尺度损失和计数尺度损失,确定神经网络模型的网络损失。
[0206]
在另一种可能的实现方式中,处理器1010用于调用存储器1040存储的程序指令,还用于执行以下操作:
[0207]
获取待处理图像;
[0208]
调用对象识别模型对待处理图像包含的目标对象进行密度估计处理,得到待处理图像对应的目标密度图,对象识别模型是通过上述提及的模型训练方法得到的;
[0209]
基于目标密度图,确定待处理图像中所包含的目标对象的数量。
[0210]
在一种可能的实现方式中,处理器1010基于目标密度图,确定待处理图像中所包含的目标对象的数量,用于执行以下操作:
[0211]
获取目标密度图内各个像素点对应的密度值;
[0212]
将各个像素点对应的密度值进行求和运算,得到待处理图像中所包含的目标对象的数量。
[0213]
本技术实施例中,获取样本图像;对样本图像包含的目标对象进行标注处理,得到样本图像对应的参考密度图;调用神经网络模型对样本图像进行密度估计处理,得到样本图像对应的预测密度图;基于参考密度图和预测密度图对神经网络模型进行训练,得到对象识别模型,对象识别模型用于识别图像中目标对象的数量。由此可见,本技术可以对样本图像中的目标对象进行标注处理,从而得到样本图像对应的参考密度图,然后通过参考密度图训练对象识别模型,使得对象识别模型可以较为准确的识别得到密度图,从而基于密度图来确定目标对象的数量,相比于直接识别出图像中的目标对象而言,本技术可以较为准确的确定出目标对象的数量,使得模型训练过程更加准确,基于更加准确的对象识别模型可以更准确地识别出目标对象的数量。
[0214]
此外,这里需要指出的是:本技术实施例还提供了一种计算机存储介质,且计算机存储介质中存储有计算机程序,且该计算机程序包括程序指令,当处理器执行上述程序指令时,能够执行前文所对应实施例中的方法,因此,这里将不再进行赘述。对于本技术所涉及的计算机存储介质实施例中未披露的技术细节,请参照本技术方法实施例的描述。作为示例,程序指令可以被部署在一个计算机设备上,或者在位于一个地点的多个计算机设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算机设备上执行。
[0215]
根据本技术的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备可以执行前文所对应实施例中的方法,因此,这里将不再进行赘述。
[0216]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,上述程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,上述存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,rom)或随机存储记忆体(random access memory,ram)等。
[0217]
以上所揭露的仅为本技术较佳实施例而已,当然不能以此来限定本技术之权利范围,因此依本技术权利要求所作的等同变化,仍属本技术所涵盖的范围。
技术特征:1.一种模型训练方法,其特征在于,包括:获取样本图像;对所述样本图像包含的目标对象进行标注处理,得到所述样本图像对应的参考密度图;调用神经网络模型对所述样本图像进行密度估计处理,得到所述样本图像对应的预测密度图;基于所述参考密度图和所述预测密度图对所述神经网络模型进行训练,得到对象识别模型,所述对象识别模型用于识别图像中目标对象的数量。2.如权利要求1所述的方法,其特征在于,所述对所述目标对象进行标注处理,得到所述样本图像对应的参考密度图,包括:采用边缘标注算法,对所述目标对象进行边界点位置标注,得到所述目标对象对应的k个边界点,k为正整数;对所述目标对象对应的k个边界点进行多边形拟合,得到用于表示所述目标对象形状的多边形对象;基于所述多边形对象,确定所述样本图像对应的参考密度图。3.如权利要求2所述的方法,其特征在于,所述多边形对象为椭圆;所述基于所述多边形对象,确定所述样本图像对应的参考密度图,包括:基于所述椭圆的参数,对所述目标对象进行高斯分布表达,得到高斯分布表达式,所述椭圆的参数包括以下任一项或多项:长半轴、短半轴、中心点、长半轴与水平方向的夹角;基于所述高斯分布表达式,确定所述样本图像对应的参考密度图。4.如权利要求3所述的方法,其特征在于,所述基于所述高斯分布表达式,确定所述样本图像对应的参考密度图,包括:基于所述高斯分布表达式,确定所述多边形对象内的各个像素点的密度值;对所述多边形对象内的各个像素点的密度值进行归一化处理,得到所述样本图像对应的参考密度图。5.如权利要求1所述的方法,其特征在于,所述基于所述参考密度图和所述预测密度图对所述神经网络模型进行训练,得到对象识别模型,包括:基于所述参考密度图和所述预测密度图之间的差异数据,确定所述神经网络模型的网络损失;基于所述网络损失对所述神经网络模型进行迭代调整处理,若调整后的神经网络模型满足模型收敛条件,则将所述调整后的神经网络模型作为对象识别模型。6.如权利要求5所述的方法,其特征在于,所述基于所述参考密度图和所述预测密度图之间的差异数据,确定所述神经网络模型的网络损失,包括:基于所述参考密度图内各个像素点和所述预测密度图内各个像素点之间的像素值差值,获取像素尺度损失;基于所述参考密度图和所述预测密度图之间针对目标对象的数量差值,获取计数尺度损失;根据所述像素尺度损失和所述计数尺度损失,确定所述神经网络模型的网络损失。7.一种模型训练方法,其特征在于,包括:
获取待处理图像;调用对象识别模型对所述待处理图像包含的目标对象进行密度估计处理,得到所述待处理图像对应的目标密度图,所述对象识别模型通过如权利要求1-6任一项所述的模型训练方法得到;基于所述目标密度图,确定所述待处理图像中所包含的目标对象的数量。8.如权利要求7所述的方法,其特征在于,所述基于所述目标密度图,确定所述待处理图像中所包含的目标对象的数量,包括:获取所述目标密度图内各个像素点对应的密度值;将所述各个像素点对应的密度值进行求和运算,得到所述待处理图像中所包含的目标对象的数量。9.一种计算机设备,其特征在于,包括:处理器,适于执行计算机程序;计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序被所述处理器执行时,实现如权利要求1-6或7-8任一项所述的方法。10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-6或7-8任一项所述的方法。
技术总结本申请提出一种模型训练方法、计算机设备及存储介质。该模型训练方法包括:获取待处理图像;调用对象识别模型对待处理图像包含的目标对象进行密度估计处理,得到待处理图像对应的目标密度图,对象识别模型是基于样本图像以及样本图像对应的参考密度图训练得到的,参考密度图是通过对样本图像包含的目标对象进行标注处理得到的;基于目标密度图,确定待处理图像中所包含的目标对象的数量。通过本申请,可以提高模型训练的准确性,从而更加准确的识别出目标对象的数量。别出目标对象的数量。别出目标对象的数量。
技术研发人员:冯威
受保护的技术使用者:深圳华策辉弘科技有限公司
技术研发日:2022.07.25
技术公布日:2022/11/1