基于路侧视频的智能网联车辆联合仿真测试方法

专利2023-02-08  101



1.本发明属于城市交通技术领域,具体涉及一种基于路侧视频的智能网联车辆联合仿真测试方法。


背景技术:

2.伴随着5g和云计算等领域的大力发展,具有网联特性的车辆上路成为可能。但是当前智能网联车辆相关算法不成熟,国内相关法律尚不完善。因此,面向于仿真的智能网联车辆算法测试成为智能网联车辆上路的必要测试环节。同时,因为真实世界相关网联算法测试的高成本等问题,基于仿真的,面向于典型场景的智能网联车辆测试方法能够显著降低智能网联汽车上路的成本,大大提高算法测试速度,降低实车测试的危险性。


技术实现要素:

3.本发明要解决的技术问题是提供一种基于路侧视频的智能网联车辆联合仿真方法。
4.为了解决上述技术问题,本发明采用的技术方案是:一种基于路侧视频的智能网联车辆联合仿真测试方法,包括以下具体步骤:
5.s1、提取车辆信息,并形成车辆轨迹;
6.s2、基于开源仿真地图下载对应视频区域内的电子地图,并转化为交通仿真软件sumo(simulation of urban mobility,城市交通模拟,一款开源的交通仿真软件)和自动驾驶仿真软件carla(一款致力于自动驾驶研究的开源仿真模拟器)路网文件,结合自建坐标系信息实现对仿真路网坐标系信息的修改,采用sumo内置traci(traffic control interface,交通控制接口)接口实现对车辆轨迹数据的导入与验证;
7.s3、采用自动驾驶仿真软件carla和交通仿真软件sumo的联合仿真方法,选取视频内的典型交通事件设计特定场景下基于车辆真实轨迹数据的场景库测试方法,其中carla端载入智能网联车辆与车辆控制算法,sumo端提供背景交通流量。
8.进一步的,s1具体为获取高速公路视频数据后,采用高速公路标准信息,实现对高速公路视频场景内特殊点位的二维坐标标定,进而实现自建坐标系的生成,设计基于yolo的视频检测算法进行视频场景内的车辆微观行为特性识别,提取多种交通参数,获取车辆连续时间步长内的上述参数并记录,形成每个车辆的车辆轨迹。
9.进一步的,所述交通参数包括车辆速度、车辆id和车辆位置信息的一种或多种。
10.进一步的,s1中,在已知摄像头三维坐标(xcyczc)后,可以实现由相机坐标到二维图像坐标系(x,y,f)的转化,其具体公式为:
[0011][0012]
在进行轨迹数据提取时,需将二维图像坐标转化为像素坐标,其具体公式为:
[0013][0014]
进一步的,s2中所述的车辆轨迹数据的导入和验证,包括获取s1中所提取的车辆轨迹信息,将其导入到sumo仿真中,将真实轨迹数据所提取的微观交通行为与仿真所提取的微观交通行为进行对比,验证轨迹数据导入仿真的准确性;将真实轨迹生成的交通流与仿真内置模型的交通流进行对比,依此验证轨迹数据仿真的有价值性。
[0015]
本发明的范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本技术中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案等。
[0016]
由于上述技术方案运用,本发明与现有技术相比具有下列优点:本发明通过基于标准交通信息的自建坐标系确定方法实现定点摄像头坐标系的建立;本发明提供一种验证仿真还原准确性的方法,依此说明采用轨迹数据仿真的有价值性;此外,本发明所搭建的自动驾驶仿真场景可移植性高,能够为智能网联汽车提供真实可靠的异常事件仿真场景库。
附图说明
[0017]
图1为本发明的方法流程图;
[0018]
图2为本发明的高速公路标线标准示意图;
[0019]
图3为本发明的自建摄像头坐标系标定点示意图;
[0020]
图4为本发明的真实车辆轨迹与不同仿真参数下的车辆时空运行图;
[0021]
图5为本发明的智能网联车辆联合仿真效果图。
具体实施方式
[0022]
以下结合实施例和说明书附图,详细说明本发明的实施过程。
[0023]
如附图所示的一种基于路侧视频的智能网联车辆联合仿真测试方法,该方法包括如下步骤:
[0024]
步骤s1、获取高速公路视频数据后,针对高速公路基本路段缺乏参照物,难以进行坐标系标定这一问题,设计基于交通标准信息的摄像头坐标系确定方法,其中所采用的高速公路标准信息包括高速公路车道宽度为3.75米,高速公路道路实线长度为9米,一条虚实线的长度为15米,两条实线之间的距离为6米,车道线宽度为15厘米。
[0025]
根据上述基本交通信息所述情况,可选取多个特殊点作为自建摄像头坐标系的标记点。选取的标记点如图3所示。
[0026]
将c点作为坐标系原点,可以根据上述a、b、c、d、e、f六点的坐标位置建立坐标系,并根据真实的六点位置与坐标系下的六点位置进行对比,依此判断自建坐标系准确性。
[0027]
所述的误差结果如表1所示。
[0028]
指标aebfecfdabefcd真实距离606030303.753.753.75
坐标距离57.2456.6428.8128.743.593.633.69相对误差(%)4.65.63.94.24.33.21.6
[0029]
所述的基于yolo的视频检测算法对视频场景内的车辆微观行为特征识别,包括车辆类型,车辆速度v,当前时间t,车辆横坐标x和车辆纵坐标y。
[0030]
步骤s2中,所述的仿真路网搭建,sumo仿真路网可以由osm地图下载得到,并对由此生成的仿真路网进行坐标平移,实现所生成路网与摄像头自建坐标系的匹配。通过已有的sumo格式转化工具实现二维交通仿真路网到carla三维仿真路网的转化,并在三维仿真路网中添加障碍物等物体。
[0031]
通过traci将真实轨迹数据导入到sumo仿真平台中并验证其有效性,主要有将真实轨迹数据所提取的微观交通行为与仿真所提取的微观交通行为进行对比,验证轨迹数据导入仿真的准确性。将真实轨迹生成的交通流与仿真内置模型的交通流进行对比,依此验证轨迹数据仿真的有价值性。在所选取的具有典型交通事件影响下的6分钟仿真时长内,通过原始轨迹数据和仿真车辆数据统计到的车辆数量,换道次数,急减速行为如表2所示:
[0032]
表2仿真与实际轨迹数据误差统计表
[0033]
指标仿真值轨迹值误差大车数量14140小车数量76760急减速次数22211换道次数27292
[0034]
对于采用真实轨迹数据的交通仿真和采用现有交通模型的仿真区别,采用交通时空轨迹图进行可视化展示。
[0035]
步骤s3中,设计特定场景下基于车辆真实轨迹数据的场景库测试方法,该方法在原视频中截取选择典型的障碍物交通事件,采用carla内置python接口实现sumo与carla的联合仿真,将部分仿真车辆通过carla与sumo端联合仿真同步工具替换为智能网联车辆。并在自动驾驶carla端导入雷达检测,路径规划和算法,信息传输等相关算法,测试算法成熟度。
[0036]
如图5所示,本实施例以高速公路抛洒物作为典型交通事件场景,截取事件造成影响的6分钟时长作为该交通场景测试时长,采用固定点位相机提取场景内车辆轨迹并生成仿真交通流量。在所选取的6分钟时长内,采用carla内置与sumo联合仿真的同步运行工具实现智能网联汽车对仿真中手动车辆的替换。本例将仿真开始第5秒和仿真开始第14秒的手动驾驶车辆替换为智能网联车辆,并分别命名为网联车辆1和网联车辆2,两辆智能网联汽车均导入路径规划算法与网联信息传输算法,在联合仿真框架内进行相关算法测试,测试结果表明测试车辆的路径规划算法并不能很好地完成避障动作,但其可将障碍物信息传递给后方网联车辆,实现后方网联车辆的提前避障。
[0037]
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

技术特征:
1.一种基于路侧视频的智能网联车辆联合仿真测试方法,其特征在于,包括以下具体步骤:s1、提取车辆信息,并形成车辆轨迹;s2、基于开源仿真地图下载对应视频区域内的电子地图,并转化为交通仿真软件sumo和自动驾驶仿真软件carla路网文件,结合自建坐标系信息实现对仿真路网坐标系信息的修改,采用sumo内置traci接口实现对车辆轨迹数据的导入与验证;s3、采用自动驾驶仿真软件carla和交通仿真软件sumo的联合仿真方法,选取视频内的典型交通事件设计特定场景下基于车辆真实轨迹数据的场景库测试方法,其中carla端载入智能网联车辆与车辆控制算法,sumo端提供背景交通流量。2.根据权利要求1所述的基于路侧视频的智能网联车辆联合仿真测试方法,其特征在于:s1具体为获取高速公路视频数据后,采用高速公路标准信息,实现对高速公路视频场景内特殊点位的二维坐标标定,进而实现自建坐标系的生成,设计基于yolo的视频检测算法进行视频场景内的车辆微观行为特性识别,提取多种交通参数,获取车辆连续时间步长内的上述参数并记录,形成每个车辆的车辆轨迹。3.根据权利要求2所述的基于路侧视频的智能网联车辆联合仿真测试方法,其特征在于:所述交通参数包括车辆速度、车辆id和车辆位置信息的一种或多种。4.根据权利要求2所述的基于路侧视频的智能网联车辆联合仿真测试方法,其特征在于:s1中,在已知摄像头三维坐标(x
c
y
c
z
c
)后,可以实现由相机坐标到二维图像坐标系(x,y,f)的转化,其具体公式为:在进行轨迹数据提取时,需将二维图像坐标转化为像素坐标,其具体公式为:5.根据权利要求1所述的基于路侧视频的智能网联车辆联合仿真测试方法,其特征在于,s2中所述的车辆轨迹数据的导入和验证,包括获取s1中所提取的车辆轨迹信息,将其导入到sumo仿真中,将真实轨迹数据所提取的微观交通行为与仿真所提取的微观交通行为进行对比,验证轨迹数据导入仿真的准确性;将真实轨迹生成的交通流与仿真内置模型的交通流进行对比,依此验证轨迹数据仿真的有价值性。

技术总结
本发明公开了一种基于路侧视频的智能网联车辆联合仿真测试方法,基于高速公路路侧视频数据,设计基于车道线信息的高泛化性视频检测坐标系标定方法,结合视频检测技术进行车辆行驶轨迹的识别与处理,基于所提取的轨迹数据实现在开源交通仿真软件SUMO中的仿真轨迹还原,结合联合仿真技术,基于开源交通仿真软件SUMO和开源车辆动力学仿真软件CARLA搭建适用于智能网联汽车算法测试与优化的仿真场景,并基于实地路侧视频验证方法的可实施性。基于实地路侧视频验证方法的可实施性。基于实地路侧视频验证方法的可实施性。


技术研发人员:刘志远 史云阳 王子寒 黄迪 张奇 刘攀
受保护的技术使用者:东南大学
技术研发日:2022.07.15
技术公布日:2022/11/1
转载请注明原文地址: https://tieba.8miu.com/read-852.html

最新回复(0)