1.本技术涉及人工智能技术领域,特别是涉及一种目标检测方法、建立空间关联感知模型的方法及装置。
背景技术:2.目标检测目前主要的应用场景就是自动驾驶和机器人等领域。目标检测是自动驾驶系统的重要组成部分之一,自动驾驶车辆不仅仅需要识别障碍物的类型,还需要识别物体的精确位置和朝向信息,以提供给规划控制模块规划出合理的路线。自动驾驶车辆的目标检测主要基于传感器,包括激光雷达、毫米波雷达、车载相机等。各种传感器能够获取多帧传感器数据,然后通过目标检测算法从多帧传感器数据中分别进行目标检测。
3.虽然目前已经存在一些基于传感器数据的目标检测算法,但在检测准确性上仍有待提高。
技术实现要素:4.有鉴于此,本技术提供了一种目标检测方法、建立空间关联感知模型的方法及装置,以便于提高目标检测的准确性。
5.本技术提供了如下方案:
6.第一方面,本技术提供了一种目标检测方法,该方法包括:
7.获取待检测的n帧传感器数据,所述n为正整数;
8.通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果;
9.基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果。
10.根据本技术实施例中一可实现的方式,所述通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果包括:
11.对各帧传感器数据分别生成多个候选区域;
12.通过深度卷积神经网络对各帧传感器数据进行候选区域的特征提取,并利用提取的特征得到各帧传感器数据的第二目标检测结果。
13.根据本技术实施例中一可实现的方式,所述基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测包括:
14.分别将各帧传感器数据作为当前输入帧传感器数据,执行:
15.利用当前输入帧传感器数据的第二目标检测结果建立当前输入帧传感器数据的信息图并输入空间关联感知模型,所述信息图包括节点和节点之间的边,所述节点包括当前输入帧传感器数据中检测得到的目标,所述边表示节点之间的关联;
16.由所述空间关联感知模型利用图卷积神经网络对当前输入帧传感器数据的信息图进行特征提取,并由映射层利用提取的特征进行第一修正预测得到当前输入帧传感器数据的第一目标检测结果。
17.根据本技术实施例中一可实现的方式,所述利用当前输入帧传感器数据的第二目标检测结果建立当前输入帧传感器数据的信息图包括:
18.利用当前输入帧传感器数据的第二目标检测结果确定当前输入帧传感器数据中各目标的兴趣区域roi,利用各目标的roi信息作为所述信息图中各节点的信息,利用各目标的roi之间的位置关系确定所述信息图中的边。
19.根据本技术实施例中一可实现的方式,所述利用图卷积神经网络对当前输入帧传感器数据的信息图进行特征提取包括:
20.在每一轮迭代中通过对边两端的节点的特征进行非线性变换计算信息图中每条边的特征,将节点相连的边通过池化方式进行融合,得到下一轮迭代中该节点的特征;
21.迭代结束后,将所有迭代中得到的同一节点的特征进行合并,得到从所述信息图中提取的该节点的特征以提供给所述映射层。
22.根据本技术实施例中一可实现的方式,所述n大于1;该方法还包括:
23.对所述各帧传感器数据的第一目标检测结果进行目标跟踪以对同一目标的信息进行关联,得到各目标的检测结果序列;
24.基于所述各目标的检测结果序列中同一目标的信息的时序关联,对所述各帧传感器数据的第一目标检测结果进行第二修正预测,得到各帧传感器数据的第三目标检测结果。
25.根据本技术实施例中一可实现的方式,基于所述各目标的检测结果序列中同一目标的信息的时序关联,对所述各帧传感器数据的第一目标检测结果进行第二修正预测包括:
26.分别输入各帧传感器数据及其第一目标检测结果至时间关联感知模型;
27.所述时间关联感知模型利用当前输入帧传感器数据的上下文目标特征,对当前输入帧传感器数据的第一目标检测结果中各目标的特征分别进行自注意力机制的处理,得到当前输入帧传感器数据的各目标的特征表示,所述当前输入帧传感器数据的上下文目标特征包括所述当前输入帧传感器数据之前和/或之后n帧传感器数据中各目标的特征,所述n为预设的正整数;利用当前输入帧传感器数据的各目标的特征表示映射得到当前输入帧传感器数据的第三目标检测结果。
28.根据本技术实施例中一可实现的方式,所述传感器数据包括点云数据;
29.所述目标检测结果包括各目标的类别信息、位置信息、尺寸信息和朝向信息。
30.第二方面,提供了一种建立空间关联感知模型的方法,该方法包括:
31.获取第一训练样本,所述第一训练样本包括多帧传感器数据、对所述多帧传感器数据进行目标检测得到的第二目标检测结果以及对所述多帧传感器数据中各目标信息标注的标签;
32.利用所述第一训练样本训练得到所述空间关联感知模型;
33.其中所述空间关联感知模型基于各帧传感器数据的第二目标检测结果中各目标之间的空间关联,对所述各帧传感器数据的第二目标检测结果进行第一修正预测,得到各
帧传感器数据的第一目标检测结果;
34.所述训练的目标包括:最小化所述各帧传感器数据的第一目标检测结果与对应标签的差异。
35.根据本技术实施例中一可实现的方式,利用所述第一训练数据训练得到所述空间关联感知模型包括:
36.利用各帧传感器数据的第二目标检测结果建立各帧传感器数据的信息图,所述信息图包括节点和节点之间的边,所述节点包括第二目标检测结果中检测得到的目标,所述边表示节点之间的关联;
37.将各帧传感器数据的信息图作为所述空间关联感知模型的输入,所述空间关联感知模型利用图卷积神经网络对所述信息图进行特征提取,并由映射层利用提取的特征进行第一修正预测得到各帧传感器数据的第一目标检测结果。
38.第三方面,提供了一种目标检测装置,该装置包括:
39.数据获取模块,被配置为获取待检测的n帧传感器数据,所述n为正整数;
40.目标检测模块,被配置为通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果;
41.空间关联感知模块,被配置为基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果。
42.第四方面,提供了一种建立空间关联感知网络的装置,该装置包括:
43.第一样本获取模块,被配置为获取第一训练样本,所述第一训练样本包括多帧传感器数据、对所述多帧传感器数据进行目标检测得到的第二目标检测结果以及对所述多帧传感器数据中各目标信息标注的标签;
44.第一模型训练模块,被配置为利用所述第一训练样本训练得到所述空间关联感知模型;其中所述空间关联感知模型基于各帧传感器数据的第二目标检测结果中各目标之间的空间关联,对所述各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果;所述训练的目标包括:最小化所述各帧传感器数据的第一目标检测结果与对应标签的差异。
45.根据第五方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一方面或第二方面中任一项所述的方法的步骤。
46.根据第六方面,提供了一种电子设备,其特征在于,包括:
47.一个或多个处理器;以及
48.与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行上述第一方面或第二方面中任一项所述的方法的步骤。
49.根据本技术提供的具体实施例,本技术可以达到以下技术效果:
50.1)本技术在对各帧传感器数据进行目标检测后,利用帧内各目标在空间上的关联,对各帧传感器数据的目标检测结果第一修正预测,从而提高目标检测的准确性。
51.2)本技术在对各帧传感器数据进行目标检测后,可以进一步利用帧间同一目标信息的时序关联,对各帧传感器数据的目标检测结果进行第二修正预测,从而进一步提高目
标检测的准确性。
52.3)在空间关联感知模型中gcn采用多层非线性变换的方式在多层迭代中不断更新边的特征,从而使得最终学习到的目标的特征融合了节点之间的关联关系,且具有较高的计算效率。
53.4)在时间关联感知模型中通过自注意力机制的处理,每一个目标的特征表示都考虑了该目标在时序上的关联影响,使得基于目标的特征表示进行的第二修正预测更加准确,且基于自注意力机制的学习过程更加高效。
54.当然,实施本技术的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
55.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
56.图1示出了可以应用本技术实施例的示例性系统架构图;
57.图2为本技术实施例提供的目标检测方法的流程图;
58.图3为本技术实施例提供的利用空间关系感知模型进行第一修正预测的示意图;
59.图4为本技术实施例提供的一种时间关联感知模型的结构图;
60.图5示出了本技术实施例提供的一种优选流程的示意图;
61.图6为本技术实施例提供的建立空间关联感知模型的方法流程图;
62.图7为本技术实施例提供的建立时间关联感知模型的方法流程图;
63.图8示出根据一个实施例的该目标检测装置的示意性框图;
64.图9示出根据一个实施例的该建立空间关联感知模型的装置的示意性框图;
65.图10示出根据一个实施例的该建立时间关联感知模型的装置的示意性框图;
66.图11为本技术实施例提供的电子设备的架构图。
具体实施方式
67.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本技术保护的范围。
68.在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
69.应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
70.取决于语境,如在此所使用的词语“如果”可以被解释成为“在
……
时”或“当
……
时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测
(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
71.图1示出了可以应用本技术实施例的示例性系统架构。如图1中所示,该系统可以包括:传感器、车端控制系统和服务端控制系统。
72.其中,传感器和车端控制系统位于车辆端。该车辆可以是自动驾驶车辆,也可以是辅助驾驶车辆等。
73.传感器可以包括但不限于雷达、视觉传感器、远红外传感器等。其中雷达可以包括但不限于激光雷达、毫米波雷达、超声波雷达等。视觉传感器可以包括但不限于相机、摄像头等。雷达能够采集到各帧点云数据,视觉传感器可以采集到各帧图像数据,均能够适用于本技术所提供的方法。
74.车端控制系统可以将传感器采集到的数据即传感器数据发送给服务器端控制系统,由服务器端控制系统采用本技术所提供的方法进行目标检测,并将目标检测结果返回给车端控制系统,由车端控制系统依据目标检测结果生成具体的决策信息。或者,由服务器端控制系统采用本技术所提供的方法进行目标检测,并生成具体的决策信息后,将决策信息返回给车端控制系统,由车端控制系统直接执行该决策信息以对车辆进行控制。或者,若车端控制系统具备强大的计算能力,则也可以由车端控制系统采用本技术所提供的方法进行目标检测并生成具体的决策信息,以对车辆进行控制。
75.其中服务端控制系统可以是单一服务器,也可以是多个服务器构成的服务器群组,还可以是云服务器。云服务器又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(vps,virtual private server)服务中存在的管理难度大,服务扩展性弱的缺陷。
76.应该理解,图1中的传感器、车端控制系统和服务端控制系统的数目仅仅是示意性的。根据实现需要,可以具有任意数目的传感器、车端控制系统和服务端控制系统。
77.图2为本技术实施例提供的目标检测方法的流程图,该方法可以由图1所示系统中的服务端控制系统执行,也可以由具有较强计算能力的车端控制系统执行。如图2中所示,该方法可以包括以下步骤:
78.步骤202:获取待检测的n帧传感器数据,n为正整数。
79.步骤204:通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果。
80.步骤206:基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果。
81.由上述流程可以看出,本技术在对各帧传感器数据进行目标检测后,利用帧内各目标在空间上的关联,对各帧传感器数据的目标检测结果第一修正预测,从而提高目标检测的准确性。
82.在此需要说明的是,本技术所涉及的“多帧”、“多个”等指代多于一个的数量。
83.下面对上述流程中的各步骤进行详细描述。首先结合实施例对上述步骤202即“获取多帧传感器数据”进行详细描述。
84.本技术实施例中获取的传感器数据可以是通过诸如激光雷达、毫米波雷达等雷达
设备采集到的n帧点云数据。n可以为1,也可以为大于1的数量,即可以是多帧。这里的多帧点云数据通常是连续采集到的多帧点云数据。鉴于雷达具备高准确性和高精度的特点,能够为自动驾驶车辆提供较远距离范围内目标的信息,并且不容易受到阴影、日光等的影响,因此优选通过雷达设备采集到的多帧点云数据。其中,雷达设备可以优选多线旋转式激光雷达或者固态激光雷达等激光雷达。
85.除此之外,本技术对于通过视觉传感器获取的多帧图像数据同样适用。例如通过摄像头连续采集到的多帧图像数据。
86.需要说明的是,本步骤中获取的多帧传感器数据通常是传感器在短时间内采集到的多帧传感器数据,采集到的范围的类似的,其中包含的目标信息也是类似的。
87.下面结合实施例对上述步骤204即“通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果”进行详细描述。
88.本步骤是对传感器数据的基础目标检测,可以采用现有技术中的任意目标检测方式对各帧传感器数据进行目标检测,得到的目标检测结果称为第二目标检测结果。
89.作为其中一种可实现的方式,可以首先对各帧传感器数据生成多个候选区域,然后通过深度卷积神经网络对多帧传感器数据中的各帧传感器数据进行候选区域的特征提取,并利用提取的特征得到各帧传感器数据的第二目标检测结果。
90.具体地,可以首先针对各帧传感器数据分别生成多个候选区域。例如,若传感器数据为图像数据,则可以采用诸如selective search(选择性搜索)生成图像的候选区域。再例如,若传感器数据为点云数据,则可以通过将点云投影到栅格坐标系上生成点云数据的候选区域。
91.然后使用诸如faster-rcnn(快速区域卷积神经网络)、ssd(single shot multibox detector,一种基于卷积神经网络的端到端目标检测器)网络、yolo(一种基于卷积神经网络的单阶段目标检测模型)、稀疏卷积神经网络等提取各候选区域的特征,再利用各候选区域的特征进行分类,得到包含目标的区域作为boundingboxes(检测框),并进一步得到各检测框所包含目标的类型信息、位置信息(通常体现为检测框的中心点位置)、尺寸信息(通常体现为检测框的长宽高)。对于点云数据而言,还可以进一步得到目标的朝向信息。
92.鉴于该部分基础的目标检测采用的是现有技术,在此不做详述。
93.下面结合实施例对上述步骤206即“基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果”进行详细描述。
94.本步骤中,是将各帧传感器数据及其第二目标检测结果输入空间关联感知模型,由空间关联感知模型利用同一帧内不同目标之间的空间关联,对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果。
95.如图3中所示,对各帧传感器数据的第二目标检测结果进行第一修正预测的实现方式主要执行以下两部分的处理:
96.第一部分的处理:利用当前输入帧传感器数据(表示为fi)的第二目标检测结果建立当前输入帧传感器数据的信息图,信息图包括节点和节点之间的边,节点包括当前输入帧传感器数据中检测得到的目标,边表示节点之间的关联。
97.作为其中一种可实现的方式,可以利用当前输入帧传感器数据的第二目标检测结果确定当前输入帧传感器数据中各目标的roi(region of interest,兴趣区域),利用各目标的roi信息作为信息图中各节点的信息,利用各目标的roi之间的位置关系确定信息图中的边。
98.其中,在确定各目标roi时,可以直接将第二目标检测结果中得到的检测框(bounding boxes)确定为各roi。但作为其中一种优选的实施方式,可以按照预设的比例将各检测框分别向外扩展得到各roi。例如,将各检测框分别沿着长、宽和高的方向向外扩展得到各roi。
99.在构建信息图时,将各roi作为信息图中的节点,节点的特征可以由roi所覆盖区域的特征得到。由于roi包含第二目标检测结果中的检测框,因此对于roi中扩展得到的部分可以依据检测框的特征采用双线性插值的方式得到。在信息图中节点之间的边可以依据各roi之间的位置关系得到,例如若两个roi的中心点之间的距离在预设第一距离范围内,则认为该两个roi之间存在关联,对应节点之间存在边。再例如,若两个roi的边界距离在预设第二距离范围内,则认为该两个roi之间存在关联,对应节点之间存在边。再例如,对于一个roi而言,可以将距离其最近的3个(数量3为预设值,也可以取其他预设值)roi确定为与该一个roi存在关联的roi,对应节点之间存在边。
100.第二部分的处理:在建立信息图后,该信息图输入空间关联感知模型。由空间关联感知模型利用gcn(graph convolutional network,图卷积神经网络)对信息图进行特征提取,并由分类层利用提取的特征进行第一修正预测得到当前输入帧传感器数据的第一目标检测结果。
101.gcn通过对信息图中节点的特征向量进行非线性变换后得到边的特征向量,并在多层迭代中不断更新每条边的信息,保证了对目标之间空间关联信息的提取。gcn利用节点的特征向量和边的特征向量得到各目标的特征向量,然后通过映射层将目标的特征向量进行映射,从而预测得到修正后的目标检测结果即第一目标检测结果。上述的gcn和映射层构成了空间关联感知模型,其中映射层可以包括分类网络和/或回归网络等。
102.在上述gcn中,可以采用一种轻量化的图卷积设计。包括:首先在每一轮迭代中通过对边两端的节点的特征进行非线性变换以计算信息图中每条边的特征。例如可以采用如下公式:
[0103][0104]
其中,表示信息图中节点m在第l轮迭代中得到的特征,表示信息图中节点n在第l轮迭代中得到的特征,即上标表示迭代的轮数,下标表示节点。表示节点m和节点n之间边在第l轮迭代中得到的特征。f()表示非线性变换函数。
[0105]
然后,通过最大池化的方式,将节点相连的边通过池化进行融合,得到下一轮迭代中该节点的特征。例如可以采用如下公式:
[0106][0107]
其中,表示所有与节点m之间存在边的节点集合,max表示取最大值。
[0108]
最后将所有迭代获得的同一节点的特征进行合并,得到最终该节点的特征。例如可以采用如下公式:
[0109][0110]
其中,表示gcn最终得到的节点m的特征,l为最大迭代轮数,concat()表示合并处理函数。
[0111]
上述gcn采用l层非线性变换的方式在多层迭代中不断更新边的特征,从而使得最终学习到的目标的特征融合了节点之间的关联关系,且具有较高的计算效率。另外,可以通过进一步控制单层非线性变换的卷积核的数量来提高整体网络的计算效率。例如,单层非线性变换的卷积核数量可以采用64或32等。
[0112]
上述第一目标检测结果同样可以包括:各检测框所包含目标的类型信息、位置信息(通常体现为检测框的中心点位置)、尺寸信息(通常体现为检测框的长宽高)。对于点云数据而言,还可以进一步得到目标的朝向信息。
[0113]
可以看出,gcn基于基础目标检测得到的目标检测结果中各目标在空间上的关联关系,对基础目标检测得到的目标检测结果进行了修正,实现了高精度空间特征关联优化,提高了目标检测的精度。
[0114]
为了更进一步提高目标检测的准确度,在图2所示步骤206之后,还可以进一步执行以下步骤:
[0115]
步骤208:对各帧传感器数据的第一目标检测结果进行目标跟踪以对同一目标的信息进行关联,得到各目标的检测结果序列。
[0116]
本步骤中的目标跟踪实际上就是确定各帧传感器数据中属于同一目标的信息,将同一目标的信息进行关联。例如,假设存在t帧传感器数据,将各帧传感器数据的第一目标检测结果中同一目标的信息进行关联后,针对每一个目标都形成一个检测结果序列,该检测结果序列中包含该目标分别在t帧传感器数据的第一目标检测结果中的信息。假设每一帧传感器数据中都存在p个目标,那么对于第j个目标,其对应的检测结果序列sj表示为[s
j,1
,s
j,2
,
…
,s
j,t
]。其中,t为大于1的正整数,p为大于或等于1的正整数。
[0117]
目标跟踪可以采用任意的目标跟踪方法,例如采用区域匹配、特征匹配或者基于轮廓的跟踪方法等等。其中最常见的是特征匹配方法,即依据目标在一帧传感器数据中的特征,在其他帧传感器数据中匹配具有最相似特征的目标,作为同一目标。对于确定为同一目标的可以采用相同的id进行标注。鉴于目标跟踪目前已经存在大量已有技术,在此不做详述。
[0118]
步骤210:基于各目标的检测结果序列中同一目标的信息的时序关联,对各帧传感器数据的第一目标检测结果进行第二修正预测,得到各帧传感器数据的第三目标检测结果。
[0119]
本步骤由时间关联感知模型执行。作为其中一种可实现的方式,可以分别输入各帧传感器数据及其第一目标检测结果、目标跟踪的结果至时间关联感知模型。时间关联感知模型利用当前输入帧传感器数据的上下文目标特征,对当前输入帧传感器数据的第一目标检测结果中各目标的特征分别进行自注意力机制的处理,得到当前输入帧传感器数据的各目标的特征表示;利用当前输入帧传感器数据的各目标的特征表示映射得到当前输入帧
传感器数据的第三目标检测结果。可将该第三目标检测结果作为最终的目标检测结果。
[0120]
图4为本技术实施例提供的一种时间关联感知模型的结构图。如图4中所示,时间关联感知模型可以包括编码(encode)层、自注意力(self-attention)层、前馈网络(feed-forward network)层和回归(regression)层。
[0121]
编码层用于对输入的各帧传感器数据进行目标特征的提取,得到各帧传感器数据中各目标的特征。
[0122]
自注意力层用于利用当前输入帧传感器数据的上下文目标特征,对当前输入帧传感器数据的第一目标检测结果中各目标的特征分别进行自注意力机制的处理,得到当前输入帧传感器数据的各目标的特征表示。
[0123]
其中,当前输入帧传感器数据的上下文目标特征可以包括当前输入帧传感器数据之前和/或之后n帧传感器数据中各目标的特征,n为预设的正整数。以n取3为例,对于当前输入的第i帧传感器数据fi中的目标j而言,可以利用该第i帧传感器数据的前3帧和后3帧传感器数据中该目标j的特征,对该第i帧传感器数据中的目标j的特征进行自注意力机制的处理,得到该第i帧传感器数据中的目标j的特征表示。
[0124]
对于同一目标j在t帧传感器数据中的特征序列x,x=[x
j,1
,x
j,2
,
…
,x
j,t
],经过自注意力机制的处理后,输出各目标j的特征表示序列为h,h=[h
j,1
,h
j,2
,
…
,h
j,t
],则可以采用如下公式:
[0125][0126]
其中,q、k和v分别是查询向量、键向量和值向量构成的矩阵,dk为k的空间维度。
[0127]
q=wqx
[0128]
k=wkx
[0129]
v=wvx
[0130]
上述wq、wk和wv分别是将x映射到三个向量空间所采用的参数矩阵,是时间关联感知网络学习到的模型参数。
[0131]
通过自注意力机制的处理,每一个目标的特征表示都考虑了该目标在时序上的关联影响,从而能够在后续基于目标的特征表示进行的修正预测更加准确。除了自注意力机制,也可以采用普通注意力机制,在此不做详述。但由于自注意力机制具有的高效学习优势,优选采用自注意力机制。
[0132]
前馈网络层用于将各目标的特征表示映射到统一的向量空间。
[0133]
回归层用于利用映射到统一的向量空间后各目标的特征表示,预测得到当前输入帧传感器数据的第三目标检测结果。该第三目标检测结果同样可以包括:各检测框所包含目标的类型信息、位置信息(通常体现为检测框的中心点位置)、尺寸信息(通常体现为检测框的长宽高)。对于点云数据而言,还可以进一步得到目标的朝向信息。
[0134]
可以看出,时间关联感知模型本质上是利用帧间同一目标的时序关联对各帧传感器数据的第一目标检测结果进行修正预测,得到各帧传感器数据的最终目标检测结果。
[0135]
由于步骤208中进行目标跟踪得到的各目标的检测结果序列是存在对应的置信度的,置信度高的序列认为属于同一目标的概率大,反之,置信度低的序列认为属于同一目标的概率小。因此,作为其中一种可实现的方式,上述时间关联感知模块可以仅针对置信度大
于或等于预设置信度阈值的检测结果序列所对应目标的第一检测结果进行修正预测。
[0136]
具体地,可以确定置信度大于或等于预设置信度阈值的检测结果序列对应的目标为待修正目标;基于待修正目标的检测结果序列所体现的时序关联,对各帧传感器数据的第一目标检测结果中待修正目标的信息进行第二修正预测。这种针对性的修正预测能够降低计算的复杂度,提高计算效率。
[0137]
图5示出了本技术实施例提供的一种优选流程的示意图,如图5中所示,对于自动驾驶车辆的激光雷达采集到的激光点云数据而言,各帧点云数据fi首先经过基础目标检测得到第二目标检测结果,该第二目标检测结果中包括各目标的信息,例如各目标的类型信息、尺寸信息、位置信息、朝向信息等。
[0138]
各帧点云数据fi及其第二目标检测结果被构建成信息图后,由空间关联感知模型利用帧内各目标在空间上的关联关系进行第一修正预测后,得到各帧点云数据fi的第一目标检测结果。该第一目标检测结果中包括各目标的信息,例如各目标的类型信息、尺寸信息、位置信息、朝向信息等。这些目标信息是经过修正后的更准确的信息。
[0139]
各帧点云数据fi的第一目标检测结果经过目标跟踪后,对各帧点云数据中同一目标的信息进行了关联,得到各目标的检测结果序列。
[0140]
各帧点云数据fi及其第一目标检测结果以及各目标的检测结果序列被输入时间关联感知模型,由时间关联感知模型利用帧间同一目标的时序关联进行第二修正预测后,得到各帧点云数据fi的第三目标检测结果,同样包括各目标的信息,例如各目标的类型信息、尺寸信息、位置信息、朝向信息等。该第三目标检测结果作为最终的目标检测结果。
[0141]
在上述目标检测过程中用到的基础目标检测和目标跟踪可以采用已有的技术实现,而空间关联感知模型和时间关联感知模型是需要预先训练得到的。下面分别对间关联感知模型和时间关联感知模型的训练方法进行详细描述。
[0142]
图6为本技术实施例提供的建立空间关联感知模型的方法流程图,如图6中所示,该方法可以包括以下步骤:
[0143]
步骤602:获取第一训练样本,第一训练样本包括多帧传感器数据、对多帧传感器数据进行目标检测得到的第二目标检测结果以及对多帧传感器数据中各目标信息标注的标签。
[0144]
在训练空间关联感知模型时,可以获取传感器对已知目标进行采集所得到的多帧传感器数据。由于目标的信息是已知的,例如目标的类型信息、位置信息、尺寸信息和朝向信息等,因此可以利用已知的目标信息对该多帧传感器数据进行标注。
[0145]
然后通过基础目标检测对多帧传感器数据进行目标检测得到第二目标检测结果。关于基础目标检测部分参见图2所示方法实施例中关于步骤204的相关记载,在此不做赘述。
[0146]
步骤604:利用第一训练样本训练得到空间关联感知模型;其中空间关联感知模型基于各帧传感器数据的第二目标检测结果中各目标之间的空间关联,对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果;训练的目标包括:最小化各帧传感器数据的第一目标检测结果与对应标签的差异。
[0147]
具体地,可以首先利用各帧传感器数据的第二目标检测结果建立各帧传感器数据的信息图,该信息图包括节点和节点之间的边,节点包括第二目标检测结果中检测得到的
目标,边表示节点之间的关联。然后将各帧传感器数据的信息图作为空间关联感知模型的输入,空间关联感知模型利用gcn对信息图进行特征提取,并由映射层利用提取的特征进行第一修正预测得到各帧传感器数据的第一目标检测结果。
[0148]
其中,在建立信息图时,可以利用各帧传感器数据的第二目标检测结果确定各帧传感器数据中各目标的roi,例如,可以直接将第二目标检测结果中得到的检测框确定为各roi。但作为其中一种优选的实施方式,可以按照预设的比例将各检测框分别向外扩展得到各roi。然后利用各目标的roi信息作为信息图中各节点的信息,利用各目标的roi之间的位置关系确定信息图中的边。例如若两个roi的中心点之间的距离在预设第一距离范围内,则认为该两个roi之间存在关联,对应节点之间存在边。再例如,若两个roi的边界距离在预设第二距离范围内,则认为该两个roi之间存在关联,对应节点之间存在边。再例如,对于一个roi而言,可以将距离其最近的3个roi确定为与该一个roi存在关联的roi,对应节点之间存在边。
[0149]
空间关联感知模型可以包括gcn和映射层。gcn通过对信息图中节点的特征向量进行非线性变换后得到边的特征向量,并在多层迭代中不断更新每条边的信息,保证了对目标之间空间关联信息的提取。gcn利用节点的特征向量和边的特征向量得到各目标的特征向量,然后通过映射层将目标的特征向量进行映射,从而预测得到修正后的目标检测结果即第一目标检测结果。其中映射层可以包括分类网络和/或回归网络等。具体可以参见图3所示实施例中的相关记载,在此不做赘述。
[0150]
在训练过程中,空间关联感知模型以第一训练样本中的标签作为输出目标,也就是说,训练目标是最小化空间关联感知模型输出的各帧传感器数据的第一目标检测结果与对应标签的差异。在本说明书实施例中,可以依据上述训练目标构造损失函数,在每一轮迭代中利用损失函数的取值,采用诸如梯度下降等方式更新模型参数,直至满足预设的训练结束条件。其中训练结束条件可以包括诸如损失函数的取值小于或等于预设的损失函数阈值,迭代次数达到预设的次数阈值等。
[0151]
图7为本技术实施例提供的建立时间关联感知模型的方法流程图,如图7中所示,该方法可以包括以下步骤:
[0152]
步骤702:获取第二训练样本,第二训练样本包括多帧传感器数据、对多帧传感器数据进行目标检测得到的第一目标检测结果、对各帧传感器数据的第一目标检测结果进行目标跟踪得到的各目标的检测结果序列以及对多帧传感器数据中各目标信息标注的标签。
[0153]
在训练时间关联感知模型时,可以获取传感器对已知目标进行采集所得到的多帧传感器数据。由于目标的信息是已知的,例如目标的类型信息、位置信息、尺寸信息和朝向信息等,因此可以利用已知的目标信息对该多帧传感器数据进行标注。
[0154]
然后通过基础目标检测对多帧传感器数据进行目标检测得到第一目标检测结果。关于基础目标检测部分参见图2所示方法实施例中关于步骤204的相关记载,在此不做赘述。
[0155]
或者,可以通过基础目标检测对多帧传感器数据进行目标检测得到第二目标检测结果,然后利用已经训练得到的空间关联感知模型对各帧传感器数据的第二目标检测结果进行第一修正预测后,得到各帧传感器数据的第一目标检测结果。关于空间关联感知模型的相关记载也可以参见图2所示方法实施例中关于步骤206的相关记载以及图3所示实施
例,在此不做赘述。
[0156]
对于上述得到的各帧传感器数据的第一目标检测结果可以采用目标跟踪的方式对同一目标的信息进行关联,得到各目标的检测结果序列。该部分可以参见图2所示方法实施例中关于步骤208的相关记载,在此不做赘述。
[0157]
至此可以得到多帧传感器数据、多帧传感器数据的第一目标检测结果、各目标的检测结果序列以及对多帧传感器数据中各目标信息标注的标签,从而构成第二训练样本。
[0158]
步骤704:利用第二训练样本训练得到时间关联感知模型;其中时间关联感知模型基于各目标的检测结果序列中同一目标的信息的时序关联,对各帧传感器数据的第一目标检测结果进行第二修正预测,得到各帧传感器数据的第三目标检测结果;训练的目标包括:最小化各帧传感器数据的第三目标检测结果与对应标签的差异。
[0159]
训练过程中,分别输入各帧传感器数据及其第一目标检测结果至时间关联感知模型;时间关联感知模型利用当前输入帧传感器数据的上下文目标特征,对当前输入帧传感器数据的第一目标检测结果中各目标的特征分别进行自注意力机制的处理,得到当前输入帧传感器数据的各目标的特征表示,当前输入帧传感器数据的上下文目标特征包括当前输入帧传感器数据之前和/或之后n帧传感器数据中各目标的特征,n为预设的正整数;利用当前输入帧传感器数据的各目标的特征表示映射得到当前输入帧传感器数据的第三目标检测结果。
[0160]
关于时间关联感知模型的具体结构可以参见图4所示实施例中的相关记载,在此不做赘述。
[0161]
时间关联感知模型以第二训练样本中的标签作为输出目标,也就是说,训练目标是最小化时间关联感知模型输出的各帧传感器数据的第三目标检测结果与对应标签的差异。在本说明书实施例中,可以依据上述训练目标构造损失函数,在每一轮迭代中利用损失函数的取值,采用诸如梯度下降等方式更新模型参数,直至满足预设的训练结束条件。其中训练结束条件可以包括诸如损失函数的取值小于或等于预设的损失函数阈值,迭代次数达到预设的次数阈值等。
[0162]
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
[0163]
根据另一方面的实施例,提供了一种目标检测装置。图8示出根据一个实施例的该目标检测装置的示意性框图,该装置设置于图1所示架构中的服务端控制系统。可以为位于服务端控制系统的应用,或者还可以为位于服务端控制系统的应用中的插件或软件开发工具包(software development kit,sdk)等功能单元,或者,还可以位于车端控制系统,本发明实施例对此不进行特别限定。如图8所示,该装置800可以包括:数据获取模块801、目标检测模块802和空间关联感知模块803,还可以进一步包括目标跟踪模块804和时序关联感知模块805。其中各组成模块的主要功能如下:
[0164]
数据获取模块801,被配置为获取多帧传感器数据。
[0165]
目标检测模块802,被配置为通过深度卷积神经网络对各帧传感器数据进行目标
检测,得到各帧传感器数据的第二目标检测结果。
[0166]
空间关联感知模块803,被配置为基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果。
[0167]
作为其中一种可实现的方式,目标检测模块802可以具体被配置为:对多帧传感器数据中的各帧传感器数据生成多个候选区域;通过深度卷积神经网络对各帧传感器数据进行候选区域的特征提取,并利用提取的特征得到各帧传感器数据的第二目标检测结果。
[0168]
作为其中一种可实现的方式,空间关联感知模块803可以具体被配置为:分别将各帧传感器数据作为当前输入帧传感器数据,执行:利用当前输入帧传感器数据的第二目标检测结果建立当前输入帧传感器数据的信息图并输入空间关联感知模型,所述信息图包括节点和节点之间的边,所述节点包括当前输入帧传感器数据中检测得到的目标,所述边表示节点之间的关联;由所述空间关联感知模型利用图卷积神经网络对当前输入帧传感器数据的信息图进行特征提取,并由映射层利用提取的特征进行第一修正预测得到当前输入帧传感器数据的第一目标检测结果。
[0169]
作为其中一种可实现的方式,空间关联感知模块803可以具体被配置为:利用当前输入帧传感器数据的第二目标检测结果确定当前输入帧传感器数据中各目标的兴趣区域roi,利用各目标的roi信息作为所述信息图中各节点的信息,利用各目标的roi之间的位置关系确定所述信息图中的边。
[0170]
作为其中一种可实现的方式,gcn在每一轮迭代中通过对边两端的节点的特征进行非线性变换计算信息图中每条边的特征,将节点相连的边通过池化方式进行融合,得到下一轮迭代中该节点的特征;迭代结束后,将所有迭代中得到的同一节点的特征进行合并,得到从所述信息图中提取的该节点的特征以提供给所述映射层。
[0171]
目标跟踪模块804,被配置为对所述各帧传感器数据的第一目标检测结果进行目标跟踪以对同一目标的信息进行关联,得到各目标的检测结果序列。
[0172]
时序关联感知模块805,被配置为基于所述各目标的检测结果序列中同一目标的信息的时序关联,对所述各帧传感器数据的第一目标检测结果进行第二修正预测,得到各帧传感器数据的第三目标检测结果。
[0173]
作为其中一种可实现的方式,时序关联感知模块805可以具体被配置为:分别输入各帧传感器数据及其第一目标检测结果至时间关联感知模型;所述时间关联感知模型利用当前输入帧传感器数据的上下文目标特征,对当前输入帧传感器数据的第一目标检测结果中各目标的特征分别进行自注意力机制的处理,得到当前输入帧传感器数据的各目标的特征表示,所述当前输入帧传感器数据的上下文目标特征包括所述当前输入帧传感器数据之前和/或之后n帧传感器数据中各目标的特征,所述n为预设的正整数;利用当前输入帧传感器数据的各目标的特征表示映射得到当前输入帧传感器数据的第三目标检测结果。
[0174]
更进一步地,目标跟踪模块804进行目标跟踪还得到各目标的检测结果序列的置信度。
[0175]
时序关联感知模块805可以确定置信度大于或等于预设置信度阈值的检测结果序列对应的目标为待修正目标;基于所述待修正目标的检测结果序列所体现的时序关联,对各帧传感器数据的第一目标检测结果中待修正目标的信息进行第二修正预测。
[0176]
作为其中一种比较典型的应用场景,上述传感器数据可以包括点云数据,即通过诸如激光雷达、毫米波雷达等雷达设备采集到的点云数据。上述的目标检测结果包括各目标的类别信息、位置信息、尺寸信息和朝向信息。
[0177]
根据另一方面的实施例,提供了一种建立空间关联感知模型的装置。图9示出根据一个实施例的该建立空间关联感知模型的装置的示意性框图。如图9所示,该装置900可以包括:第一样本获取模块901和第一模型训练模块902。其中,各组成模块可以具备以下功能:
[0178]
第一样本获取模块901,被配置为获取第一训练样本,所述第一训练样本包括多帧传感器数据、对所述多帧传感器数据进行目标检测得到的第二目标检测结果以及对所述多帧传感器数据中各目标信息标注的标签。
[0179]
第一样本获取模块901可以获取传感器对已知目标进行采集所得到的多帧传感器数据。由于目标的信息是已知的,例如目标的类型信息、位置信息、尺寸信息和朝向信息等,因此可以利用已知的目标信息对该多帧传感器数据进行标注。
[0180]
然后通过基础目标检测对多帧传感器数据进行目标检测得到第二目标检测结果。关于基础目标检测部分参见图2所示方法实施例中关于步骤204的相关记载,在此不做赘述。
[0181]
第一模型训练模块902,被配置为利用所述第一训练样本训练得到所述空间关联感知模型;其中所述空间关联感知模型基于各帧传感器数据的第二目标检测结果中各目标之间的空间关联,对所述各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果;所述训练的目标包括:最小化所述各帧传感器数据的第一目标检测结果与对应标签的差异。
[0182]
作为其中一种可实现的方式,第一模型训练模块902可以首先利用各帧传感器数据的第二目标检测结果建立各帧传感器数据的信息图,该信息图包括节点和节点之间的边,节点包括第二目标检测结果中检测得到的目标,边表示节点之间的关联。然后将各帧传感器数据的信息图作为空间关联感知模型的输入,空间关联感知模型利用gcn对信息图进行特征提取,并由映射层利用提取的特征进行第一修正预测得到各帧传感器数据的第一目标检测结果。
[0183]
其中,在建立信息图时,可以利用各帧传感器数据的第二目标检测结果确定各帧传感器数据中各目标的roi,例如,可以直接将第二目标检测结果中得到的检测框确定为各roi。但作为其中一种优选的实施方式,可以按照预设的比例将各检测框分别向外扩展得到各roi。然后利用各目标的roi信息作为信息图中各节点的信息,利用各目标的roi之间的位置关系确定信息图中的边。
[0184]
空间关联感知模型可以包括gcn和映射层。gcn通过对信息图中节点的特征向量进行非线性变换后得到边的特征向量,并在多层迭代中不断更新每条边的信息,保证了对目标之间空间关联信息的提取。gcn利用节点的特征向量和边的特征向量得到各目标的特征向量,然后通过映射层将目标的特征向量进行映射,从而预测得到修正后的目标检测结果即第一目标检测结果。其中映射层可以包括分类网络和/或回归网络等。具体可以参见图3所示实施例中的相关记载,在此不做赘述。
[0185]
在训练过程中,空间关联感知模型以第一训练样本中的标签作为输出目标,也就
是说,训练目标是最小化空间关联感知模型输出的各帧传感器数据的第一目标检测结果与对应标签的差异。在本说明书实施例中,可以依据上述训练目标构造损失函数,在每一轮迭代中利用损失函数的取值,采用诸如梯度下降等方式更新模型参数,直至满足预设的训练结束条件。其中训练结束条件可以包括诸如损失函数的取值小于或等于预设的损失函数阈值,迭代次数达到预设的次数阈值等。
[0186]
根据另一方面的实施例,提供了一种建立时间关联感知模型的装置。图10示出根据一个实施例的该建立时间关联感知模型的装置的示意性框图。如图10所示,该装置1000可以包括:第二样本获取模块1001和第二模型训练模块1002。其中,各组成模块可以具备以下功能:
[0187]
第二样本获取模块1001,被配置为获取第二训练样本,所述第二训练包括多帧传感器数据、对所述多帧传感器数据进行目标检测得到的第一目标检测结果、对所述各帧传感器数据的第一目标检测结果进行目标跟踪得到的各目标的检测结果序列以及对所述多帧传感器数据中各目标信息标注的标签。
[0188]
第二样本获取模块1001可以获取传感器对已知目标进行采集所得到的多帧传感器数据。由于目标的信息是已知的,例如目标的类型信息、位置信息、尺寸信息和朝向信息等,因此可以利用已知的目标信息对该多帧传感器数据进行标注。
[0189]
然后获取通过基础目标检测对多帧传感器数据进行目标检测得到的第一目标检测结果。关于基础目标检测部分参见图2所示方法实施例中关于步骤204的相关记载,在此不做赘述。
[0190]
或者,可以通过基础目标检测对多帧传感器数据进行目标检测得到第二目标检测结果,然后利用已经训练得到的空间关联感知模型对各帧传感器数据的第二目标检测结果进行第一修正预测后,得到各帧传感器数据的第一目标检测结果。关于空间关联感知模型的相关记载也可以参见图2所示方法实施例中关于步骤206的相关记载以及图3所示实施例,在此不做赘述。
[0191]
对于上述得到的各帧传感器数据的第一目标检测结果可以采用目标跟踪的方式对同一目标的信息进行关联,得到各目标的检测结果序列。该部分可以参见图2所示方法实施例中关于步骤208的相关记载,在此不做赘述。
[0192]
第二模型训练模块1002,被配置为利用所述第二训练样本训练得到时间关联感知网络;其中所述时间关联感知网络基于所述各目标的检测结果序列中同一目标的信息的时序关联,对所述各帧传感器数据的第一目标检测结果进行第二修正预测,得到各帧传感器数据的第三目标检测结果;所述训练的目标包括:最小化所述各帧传感器数据的第三目标检测结果与对应标签的差异。
[0193]
训练过程中,第二模型训练模块1002分别输入各帧传感器数据及其第一目标检测结果至时间关联感知模型;时间关联感知模型利用当前输入帧传感器数据的上下文目标特征,对当前输入帧传感器数据的第一目标检测结果中各目标的特征分别进行自注意力机制的处理,得到当前输入帧传感器数据的各目标的特征表示,当前输入帧传感器数据的上下文目标特征包括当前输入帧传感器数据之前和/或之后n帧传感器数据中各目标的特征,n为预设的正整数;利用当前输入帧传感器数据的各目标的特征表示映射得到当前输入帧传感器数据的第三目标检测结果。
[0194]
关于时间关联感知模型的具体结构可以参见图4所示实施例中的相关记载,在此不做赘述。
[0195]
时间关联感知模型以第二训练样本中的标签作为输出目标,也就是说,训练目标是最小化时间关联感知模型输出的各帧传感器数据的第三目标检测结果与对应标签的差异。在本说明书实施例中,可以依据上述训练目标构造损失函数,在每一轮迭代中利用损失函数的取值,采用诸如梯度下降等方式更新模型参数,直至满足预设的训练结束条件。其中训练结束条件可以包括诸如损失函数的取值小于或等于预设的损失函数阈值,迭代次数达到预设的次数阈值等。
[0196]
另外,本技术实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现前述方法实施例中任一项所述的方法的步骤。
[0197]
以及一种电子设备,包括:
[0198]
一个或多个处理器;以及
[0199]
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行前述方法实施例中任一项所述的方法的步骤。
[0200]
其中,图11示例性的展示出了电子设备的架构,具体可以包括处理器1110,视频显示适配器1111,磁盘驱动器1112,输入/输出接口1113,网络接口1114,以及存储器1120。上述处理器1110、视频显示适配器1111、磁盘驱动器1112、输入/输出接口1113、网络接口1114,与存储器1120之间可以通过通信总线1130进行通信连接。
[0201]
其中,处理器1110可以采用通用的cpu、微处理器、应用专用集成电路(application specific integrated circuit,asic)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本技术所提供的技术方案。
[0202]
存储器1120可以采用rom(read only memory,只读存储器)、ram(randomaccess memory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1120可以存储用于控制电子设备1100运行的操作系统1121,用于控制电子设备1100的低级别操作的基本输入输出系统(bios)1122。另外,还可以存储网页浏览器1123,数据存储管理系统1124,以及目标检测装置1125等等。上述目标检测装置1125就可以是本技术实施例中具体实现前述各步骤操作的应用程序。总之,在通过软件或者固件来实现本技术所提供的技术方案时,相关的程序代码保存在存储器1120中,并由处理器1110来调用执行。
[0203]
输入/输出接口1113用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
[0204]
网络接口1114用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信。
[0205]
总线1130包括一通路,在设备的各个组件(例如处理器1110、视频显示适配器1111、磁盘驱动器1112、输入/输出接口1113、网络接口1114,与存储器1120)之间传输信息。
[0206]
需要说明的是,尽管上述设备仅示出了处理器1110、视频显示适配器1111、磁盘驱
动器1112、输入/输出接口1113、网络接口1114,存储器1120,总线1130等,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本技术方案所必需的组件,而不必包含图中所示的全部组件。
[0207]
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例或者实施例的某些部分所述的方法。
[0208]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0209]
以上对本技术所提供的技术方案进行了详细介绍,本文中应用了具体个例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思想;同时,对于本领域的一般技术人员,依据本技术的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本技术的限制。
技术特征:1.一种目标检测方法,其特征在于,该方法包括:获取待检测的n帧传感器数据,所述n为正整数;通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果;基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果。2.根据权利要求1所述的方法,其特征在于,所述通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果包括:对各帧传感器数据分别生成多个候选区域;通过深度卷积神经网络对各帧传感器数据进行候选区域的特征提取,并利用提取的特征得到各帧传感器数据的第二目标检测结果。3.根据权利要求1所述的方法,其特征在于,所述基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测包括:分别将各帧传感器数据作为当前输入帧传感器数据,执行:利用当前输入帧传感器数据的第二目标检测结果建立当前输入帧传感器数据的信息图并输入空间关联感知模型,所述信息图包括节点和节点之间的边,所述节点包括当前输入帧传感器数据中检测得到的目标,所述边表示节点之间的关联;由所述空间关联感知模型利用图卷积神经网络对当前输入帧传感器数据的信息图进行特征提取,并由映射层利用提取的特征进行第一修正预测得到当前输入帧传感器数据的第一目标检测结果。4.根据权利要求3所述的方法,其特征在于,所述利用当前输入帧传感器数据的第二目标检测结果建立当前输入帧传感器数据的信息图包括:利用当前输入帧传感器数据的第二目标检测结果确定当前输入帧传感器数据中各目标的兴趣区域roi,利用各目标的roi信息作为所述信息图中各节点的信息,利用各目标的roi之间的位置关系确定所述信息图中的边。5.根据权利要求3所述的方法,其特征在于,所述利用图卷积神经网络对当前输入帧传感器数据的信息图进行特征提取包括:在每一轮迭代中通过对边两端的节点的特征进行非线性变换计算信息图中每条边的特征,将节点相连的边通过池化方式进行融合,得到下一轮迭代中该节点的特征;迭代结束后,将所有迭代中得到的同一节点的特征进行合并,得到从所述信息图中提取的该节点的特征以提供给所述映射层。6.根据权利要求1所述的方法,其特征在于,所述n大于1;该方法还包括:对所述各帧传感器数据的第一目标检测结果进行目标跟踪以对同一目标的信息进行关联,得到各目标的检测结果序列;基于所述各目标的检测结果序列中同一目标的信息的时序关联,对所述各帧传感器数据的第一目标检测结果进行第二修正预测,得到各帧传感器数据的第三目标检测结果。7.根据权利要求6所述的方法,其特征在于,基于所述各目标的检测结果序列中同一目
标的信息的时序关联,对所述各帧传感器数据的第一目标检测结果进行第二修正预测包括:分别输入各帧传感器数据及其第一目标检测结果至时间关联感知模型;所述时间关联感知模型利用当前输入帧传感器数据的上下文目标特征,对当前输入帧传感器数据的第一目标检测结果中各目标的特征分别进行自注意力机制的处理,得到当前输入帧传感器数据的各目标的特征表示,所述当前输入帧传感器数据的上下文目标特征包括所述当前输入帧传感器数据之前和/或之后n帧传感器数据中各目标的特征,所述n为预设的正整数;利用当前输入帧传感器数据的各目标的特征表示映射得到当前输入帧传感器数据的第三目标检测结果。8.根据权利要求1至7中任一项所述的方法,其特征在于,所述传感器数据包括点云数据;所述目标检测结果包括各目标的类别信息、位置信息、尺寸信息和朝向信息。9.一种建立空间关联感知模型的方法,其特征在于,该方法包括:获取第一训练样本,所述第一训练样本包括多帧传感器数据、对所述多帧传感器数据进行目标检测得到的第二目标检测结果以及对所述多帧传感器数据中各目标信息标注的标签;利用所述第一训练样本训练得到所述空间关联感知模型;其中所述空间关联感知模型基于各帧传感器数据的第二目标检测结果中各目标之间的空间关联,对所述各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果;所述训练的目标包括:最小化所述各帧传感器数据的第一目标检测结果与对应标签的差异。10.根据权利要求9所述的方法,其特征在于,利用所述第一训练数据训练得到所述空间关联感知模型包括:利用各帧传感器数据的第二目标检测结果建立各帧传感器数据的信息图,所述信息图包括节点和节点之间的边,所述节点包括第二目标检测结果中检测得到的目标,所述边表示节点之间的关联;将各帧传感器数据的信息图作为所述空间关联感知模型的输入,所述空间关联感知模型利用图卷积神经网络对所述信息图进行特征提取,并由映射层利用提取的特征进行第一修正预测得到各帧传感器数据的第一目标检测结果。11.一种目标检测装置,其特征在于,该装置包括:数据获取模块,被配置为获取待检测的n帧传感器数据,所述n为正整数;目标检测模块,被配置为通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果;空间关联感知模块,被配置为基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果。12.一种建立空间关联感知网络的装置,其特征在于,该装置包括:第一样本获取模块,被配置为获取第一训练样本,所述第一训练样本包括多帧传感器
数据、对所述多帧传感器数据进行目标检测得到的第二目标检测结果以及对所述多帧传感器数据中各目标信息标注的标签;第一模型训练模块,被配置为利用所述第一训练样本训练得到所述空间关联感知模型;其中所述空间关联感知模型基于各帧传感器数据的第二目标检测结果中各目标之间的空间关联,对所述各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果;所述训练的目标包括:最小化所述各帧传感器数据的第一目标检测结果与对应标签的差异。13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至10任一项所述的方法的步骤。14.一种电子设备,其特征在于,包括:一个或多个处理器;以及与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行权利要求1至10任一项所述的方法的步骤。
技术总结本申请实施例公开了一种目标检测方法、建立空间关联感知模型的方法及装置。主要方法包括:获取待检测的N帧传感器数据,所述N为正整数;通过深度卷积神经网络对各帧传感器数据进行目标检测,得到各帧传感器数据的第二目标检测结果;基于同一帧传感器数据的第二目标检测结果中各目标之间的空间关联,分别对各帧传感器数据的第二目标检测结果进行第一修正预测,得到各帧传感器数据的第一目标检测结果。通过本申请能够提高目标检测的准确性。本申请能够提高目标检测的准确性。本申请能够提高目标检测的准确性。
技术研发人员:张达 吴宇寰 苗振伟 占新 卿泉 袁婷婷
受保护的技术使用者:阿里巴巴达摩院(杭州)科技有限公司
技术研发日:2022.06.20
技术公布日:2022/11/1