一种基于改进的时空transformer的交通流量预测方法
技术领域
1.本发明涉及交通预测技术领域,具体涉及一种基于改进的时空transformer 的交通流量预测方法。
背景技术:2.随着城市化进程的推进和日益增长的人口数,交通拥堵的压力和交通事故的发生日益增加,智能交通系统(its)成为交通便利不可或缺的综合技术。交通流量预测既是智能交通系统中重要组成部分之一,同时也是一项富有挑战性的任务。交通速度数据可以由市区公路系统检测器收集或者导航系统记录车辆行驶速度数据转换而来,被用于交通流量预测模型模拟路段在不同工作日与路网上车辆速度的高度非线性变化。准确的交通预测模型有助于生活中出行路线规划和行程安排,从而减少一些没必要的负担。
3.早期基于经典统计方法的算法被广泛地用于交通流预测,这些算法需要满足平稳性的假设,其中常见的预测方法有向量自回归法(var)、历史平均法(ha)等。然而,这些算法中的参数依赖于相关领域专家的精心设计,并没有挖掘数据中信息,导致预测的效果一般。随着近几年国内深度学习的蓬勃发展,循环神经网络(rnn)、卷积神经网络(cnn)、基于图卷积神经网络(gcnn)在交通流量预测领域的被研究者所采用,提取高阶的时空依赖。然而,这些模型没有考虑到交通路网图的动态变化,仅在固定的空间依赖关系上计算空间依赖关系并保持使用。近年来,机器翻译和自然语言处理任务广泛地使用基于注意力的transformer模型,来建模序列到序列的预测,能够动态地捕捉给定上下文的各种句法和语义特征。为了解决动态时空依赖的问题,基于规范transformer及其变体的时空模型被引入交通预测任务中。
4.本技术发明人在实施本发明的过程中,发现现有基于transformer的交通预测方法,存在如下技术问题:
5.(1)基于规范transformer的交通预测方法在捕捉高阶空间依赖上的能力表现不强,其中多头自注意力只有少数点积对贡献关键的注意力。可能的原因是:1) 节点的自注意力机制仅计算了节点间的语义相似度,而没考虑反映在节点上的图的结构信息和节点对之间的高阶关系;2)来自规范transformer的注意力分数具有长尾分布,少数点积对贡献了主要的注意力,而其他点积对则产生了微不足道的注意力。
6.(2)用于交通预测领域的基于编解码器的时空transformer使用编码器将历史时空数据的空间依赖和时间依赖转换为每个历史时间步的隐藏向量表示,该向量被用于编解码器的注意层,建立输入历史序列与输出未来序列之间的关联,预测每个未来时间步的交通流量,然而这是远远不够的。它们只从单个历史时间步和未来时间步之间的交互这个方面建模输入历史序列对输出未来序列的影响,而忽略了单个历史时刻交通状况对未来整个时间段交通状况的一般影响,阻碍了预测性能进一步的提升。
7.由此可知,现有交通流量预测技术中的方法存在性能不高的技术问题。
技术实现要素:8.本发明提供了一种基于编解码器的改进的时空transformer模型(i sttm),引入空间稀疏自注意力,并结合时间层次扩散卷积,捕捉交通流量的动态空间相关性和局部空间特征,基于编解码器提取的时空特征,采用双重交叉注意力模拟历史交通观测对未来预测的影响,用以解决基于时空transformer模型的交通流量预测模型性能不高的问题;
9.为了解决上述技术问题,本发明提供了一种基于改进的时空transformer 的交通流量预测方法,包括如下步骤:
10.步骤s1:使用编码器架构时空嵌入层来增强输入历史交通流量数据x的特征表示,时空嵌入层由节点的line嵌入、绝对位置嵌入、时间嵌入组成;
11.步骤s2:采用各层编码器中的空间稀疏自注意力与层次扩散卷积的门控融合块对输入序列的动态空间依赖进行建模,利用时间自注意力捕捉非线性的时间关联,前者门控融合块是空间特征提取模块,后者是时间特征提取模块,两者组成了时空特征提取模块;
12.步骤s3:利用各层编码器中的基于gelu激活函数和全连接组成的前馈神经网络来变换时空特征提取模块捕捉的时空特征,输出历史序列时空特征的最终表示;
13.步骤s4:与编码器类似地,利用解码器架构中的时空嵌入层来增强输入的填充交通数据的特征表示;
14.步骤s5:与编码器类似地,利用各层解码器中的时空特征提取模块来捕捉输入交通数据的时空特征;
15.步骤s6:基于解码器捕捉到的时空特征,利用双重交叉注意力分别处理各层解码器的时空特征和编码器最终的历史时空表示,建立输入历史序列与输出未来序列之间的关联,预测每个未来时间步的交通流量,不仅模拟了编码的每一个历史时间步特征和预测的每一个未来时间步特征的交互,还突出某一个历史时间步对未来时间段整体的一般影响,进一步地减少预测未来流量的误差;
16.与编码器类似,使用前馈神经网络来变换时空特征,并输出各层解码器的特征表示,循环传递下去,得到预测的未来序列的最终表示;
17.在一种实施方式中,时空嵌入层包括节点的line嵌入、绝对位置嵌入、时间嵌入,步骤s1具体包括:
18.步骤s1.1:通过line图嵌入对有向加权的交通图邻接矩阵进行预训练,得出高阶邻接矩阵的嵌入信息,来用于计算空间注意力;
19.步骤s1.2:通过绝对位置嵌入补充序列的顺序信息x
pe
;
20.步骤s1.3:通过可学习的时间嵌入来对时间信息进行编码;
21.步骤s1.4:将三种嵌入信息融入输入的历史时空数据中,可以表示为:
22.he
(0)
=add(concat(x,x
line
),x
pe
,x
te
);
23.其中
24.在一种实施方式中,步骤s2具体包括:
25.步骤s2.1:空间稀疏自注意力负责捕捉历史时间序列下关键的动态空间依赖,将时空数据映射至高维的查询、键、值空间,利用最大均值衡量方法来计算节点查询对所有键的注意力分布与关注度很小的均匀分布的差异,取得差异值大的 top-u个查询向量,并执
行这些查询和键之间的缩放点积,更新节点的特征表示,进而捕捉到起主导作用的高阶空间依赖;
26.步骤s2.2:时间层次扩散卷积挖掘不同时间层次下的局部空间依赖,使用基于通道分解的门控卷积与基于自适应图的扩散卷积来捕获多时间尺度下的局部空间特征;
27.步骤s2.3:门控融合被用于自适应地分配动态空间依赖和局部空间依赖的权重;
28.步骤s2.4:时间自注意力关注每个节点的重要时间步,用于捕捉全局的历史时间关联,直接关注跨时间步的特征,而不受访问输入序列中信息的任何限制;
29.在一种实施方式中,步骤s2.1具体包括:
30.步骤s2.1.1:首先,在第l层编码器中,将节点的隐藏状态he
(l-1)
分别线性变换为相同维度的查询矩阵q、键矩阵k、值矩阵v;
31.步骤s2.1.2:然后,从q和k矩阵中随机采样ns=n*lnn个查询-值点积对,记作q_k,并执行注意力分数的稀疏性衡量:
[0032][0033]
步骤s2.1.3:其次,根据稀疏衡量矩阵的计算数值,从查询矩阵q 中选取数值偏大的top-u个查询向量,组合成新的查询矩阵提取强的空间相关性的节点特征,其中u=c1*lnn,c1是恒定的空间采样因子,相关公式如下:
[0034][0035]
其中r1是部分节点特征表示;
[0036]
步骤s2.1.4:最后将v的均值代替未被选中的查询向量的特征表示r2,并与r1在节点上拼接,因为未被选取的点积对的关注度得分近似均匀分布,即相应的空间关联性太小:
[0037]
r2=mean(v);
[0038][0039]
在一种实施方式中,步骤s6具体包括:
[0040]
步骤s6.1:对于历史时间步和未来时间步之间的个体交互来说,分别将编码器最终的历史时空表示he
(l)
和第l层解码器的未来时空特征对应的每个节点特征嵌入xn和xm至另一个相同维度大小的嵌入空间,并生成它们点积对的查询向量qn和键向量km,相关公式如下所示:
[0041]qn
=wqxn;
[0042]km
=wkxm;
[0043]
其中wq,分别作为查询向量和键向量线性变换的可学习参数矩阵;
[0044]
步骤s6.2:然后,为了适当地降低he
(l)
和的成对相关性,本文通过以下处理查询向量和键向量:
[0045]ac
(xm,xn)=δ((q
n-μq)
t
(k
m-μk));
[0046]
其中δ(
·
)是softmax函数;和分别代表所有查询向量和键向量的平均值,l1和l2分别表示编码器与解码器的输入数据序列长度,xi和xj分别是的第i个特征嵌入和he
(l)
的第j个特征嵌入;
[0047]
步骤s6.3:对于历史时间步对未来时间段整体交互来说,类似地,本文重新转换为query
′
,并按时间维度平均query
′
,得到解码器未来时间段整体的特征表示query
′u,μ
′q是内部的嵌入向量,相关公式如下所示:
[0048]au
(xm,xn)=δ((μ
′q)
tkm
);
[0049]
其中用于反映出编码器编码的时空特征对时空特征一般的整体影响;
[0050]
步骤s6.4:将步骤s6.2中的个体交互和步骤s6.3的整体交互得到的两种关注度平均化,相关公式如下所示:
[0051][0052]
步骤s6.5:根据历史时间步与未来时间步最终的交互结果,将he
(l)
线性变换后的值向量vm乘以相应的影响程度后相加,得出数据与he
(l)
在时间上的动态交互后输出的隐藏表示,相关公式如下:
[0053]
vm=wvxm;
[0054][0055]
其中h是多头的数目;
[0056]
在一种实施方式中,步骤s7具体包括:
[0057]
将双重交叉注意力输出的隐藏表示经过前馈神经网络变换,过程表示如下:
[0058]
ffn(x)=gelu(xw1)w2;
[0059]
其中w1,w2代表可学习的参数矩阵,gelu是引入随机正则思想的激活函数, x代表输入张量;
[0060]
循环传递下去,得到解码器最终输出hd
(l)
,并线性转换为通过最小化预测值和真实值之间的平均绝对误差(mae),利用优化器adam进行端到端的训练,其损失函数如下:
[0061][0062]
其中φ是isttm中训练的所有参数,y是下一个时间步长为q的真实速度, n是节点的数目,d代表节点的特征数(速度、流量、时间戳等等);
[0063]
本发明是一种基于编解码器的改进的时空transformer模型。编码器对历史流量特征进行编码,解码器预测未来序列。首先,编码器将空间稀疏自注意力和时间层次扩散卷
积相结合,捕捉交通流量的动态空间相关性和局部空间特征,再利用时间自注意力建模非线性时间相关性;接着,解码器与编码器类似地挖掘出输入序列的时空特征。最后,基于编解码器提取的时空特征,采用双重交叉注意力模拟历史交通观测对未来预测的影响,建模每个历史时间步和每个未来时间步的直接关系以及对整个未来时间段的影响,并输出未来交通流量的最终表示。本发明在真实世界的数据集上执行实验,取得良好的预测结果。
附图说明
[0064]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0065]
图1是一种基于改进的时空transformer的交通流量预测方法的流程图;
[0066]
图2是本发明提出的isttm模型(基于改进的时空transformer的交通流量预测模型)总体框架图;
[0067]
图3是编解码中的核心模块图,即时空特征提取模块;
[0068]
图4是解码器的双重交叉注意力模块;
具体实施方式
[0069]
为了详细地、完整地描述本发明实施例的技术方案,以下结合附图对本发明实施例的具体实施进行了介绍。应当强调地是,此处所描述的具体实施方式仅用于说明和解释本发明实施例,本发明的具体实施方案如下:
[0070]
基于改进的时空transformer的交通流量预测方法及系统,具体包含如下步骤:
[0071]
步骤s1:使用编码器架构时空嵌入层来增强输入历史交通流量数据x的特征表示,时空嵌入层由节点的line嵌入、绝对位置嵌入、时间嵌入组成;
[0072]
步骤s2:采用各层编码器中的空间稀疏自注意力与层次扩散卷积的门控融合块对输入序列的动态空间依赖进行建模,利用时间自注意力捕捉非线性的时间关联,前者门控融合块是空间特征提取模块,后者是时间特征提取模块,两者组成了时空特征提取模块;
[0073]
步骤s3:利用各层编码器中的基于gelu激活函数和全连接组成的前馈神经网络来变换时空特征提取模块捕捉的时空特征,输出历史序列时空特征的最终表示;
[0074]
步骤s4:与编码器类似地,利用解码器架构中的时空嵌入层来增强输入的填充交通数据的特征表示;
[0075]
步骤s5:与编码器类似地,利用各层解码器中的时空特征提取模块来捕捉输入交通数据的时空特征;
[0076]
步骤s6:基于解码器捕捉到的时空特征,利用双重交叉注意力分别处理各层解码器的时空特征和编码器最终的历史时空表示,建立输入历史序列与输出未来序列之间的关联,预测每个未来时间步的交通流量,不仅模拟了编码的每一个历史时间步特征和预测的每一个未来时间步特征的交互,还突出某一个历史时间步对未来时间段整体的一般影响,进一步地减少预测未来流量的误差;
[0077]
步骤s1具体包括:
[0078]
步骤s1.1:通过line图嵌入对有向加权的交通图邻接矩阵进行预训练,得出高阶邻接矩阵的嵌入信息,来用于计算空间注意力;
[0079]
步骤s1.2:通过绝对位置嵌入补充序列的顺序信息x
pe
;
[0080]
步骤s1.3:通过可学习的时间嵌入来对时间信息进行编码;
[0081]
步骤s1.4:将三种嵌入信息融入输入的历史时空数据中,可以表示为:
[0082]
he
(0)
=add(concat(x,x
line
),x
pe
,x
te
);
[0083]
其中
[0084]
在一种实施方式中,步骤s2具体包括:
[0085]
步骤s2.1:空间稀疏自注意力负责捕捉历史时间序列下关键的动态空间依赖,将时空数据映射至高维的查询、键、值空间,利用最大均值衡量方法来计算节点查询对所有键的注意力分布与关注度很小的均匀分布的差异,取得差异值大的 top-u个查询向量,并执行这些查询和键之间的缩放点积,更新节点的特征表示,进而捕捉到起主导作用的高阶空间依赖;
[0086]
步骤s2.2:时间层次扩散卷积挖掘不同时间层次下的局部空间依赖,使用基于通道分解的门控卷积与基于自适应图的扩散卷积来捕获多时间尺度下的局部空间特征;
[0087]
步骤s2.3:门控融合被用于自适应地分配动态空间依赖和局部空间依赖的权重;
[0088]
步骤s2.4:时间自注意力关注每个节点的重要时间步,用于捕捉全局的历史时间关联,直接关注跨时间步的特征,而不受访问输入序列中信息的任何限制;
[0089]
在一种实施方式中,步骤s2.1具体包括:
[0090]
步骤s2.1.1:首先,在第l层编码器中,将节点的隐藏状态he
(l-1)
分别线性变换为相同维度的查询矩阵q、键矩阵k、值矩阵v;
[0091]
步骤s2.1.2:然后,从q和k矩阵中随机采样ns=n*lnn个查询-值点积对,记作q_k,并执行注意力分数的稀疏性衡量:
[0092][0093]
步骤s2.1.3:其次,根据稀疏衡量矩阵的计算数值,从查询矩阵q 中选取数值偏大的top-u个查询向量,组合成新的查询矩阵提取强的空间相关性的节点特征,其中u=c1*lnn,c1是恒定的空间采样因子,相关公式如下:
[0094][0095]
其中r1是部分节点特征表示;
[0096]
步骤s2.1.4:最后将v的均值代替未被选中的查询向量的特征表示r2,并与r1在节点上拼接,因为未被选取的点积对的关注度得分近似均匀分布,即相应的空间关联性太小:
[0097]
r2=
mean
(v);
[0098][0099]
在一种实施方式中,步骤s6具体包括:
[0100]
步骤s6.1:对于历史时间步和未来时间步之间的个体交互来说,分别将编码器最
终的历史时空表示he
(l)
和第l层解码器的未来时空特征对应的每个节点特征嵌入xn和xm至另一个相同维度大小的嵌入空间,并生成它们点积对的查询向量qn和键向量km,相关公式如下所示:
[0101]qn
=wqxn;
[0102]km
=wkxm;
[0103]
其中wq,分别作为查询向量和键向量线性变换的可学习参数矩阵;
[0104]
步骤s6.2:然后,为了适当地降低he
(l)
和的成对相关性,本文通过以下处理查询向量和键向量:
[0105]ac
(xm,xn)=δ((q
n-μq)
t
(k
m-μk));
[0106]
其中δ(
·
)是softmax函数;和分别代表所有查询向量和键向量的平均值,l1和l2分别表示编码器与解码器的输入数据序列长度,xi和xj分别是的第i个特征嵌入和he
(l)
的第j个特征嵌入;
[0107]
步骤s6.3:对于历史时间步对未来时间段整体交互来说,类似地,本文重新转换为query
′
,并按时间维度平均query
′
,得到解码器未来时间段整体的特征表示query
′u,μq′
是内部的嵌入向量,相关公式如下所示:
[0108]au
(xm,xn)=δ((μ
′q)
tkm
);
[0109]
其中用于反映出编码器编码的时空特征对时空特征一般的整体影响;
[0110]
步骤s6.4:将步骤s6.2中的个体交互和步骤s6.3的整体交互得到的两种关注度平均化,相关公式如下所示:
[0111][0112]
步骤s6.5:根据历史时间步与未来时间步最终的交互结果,将he
(l)
线性变换后的值向量vm乘以相应的影响程度后相加,得出数据与he
(l)
在时间上的动态交互后输出的隐藏表示,相关公式如下:
[0113]
vm=wvxm;
[0114][0115]
其中h是多头的数目;
[0116]
在一种实施方式中,步骤s7具体包括:
[0117]
将双重交叉注意力输出的隐藏表示经过前馈神经网络变换,过程表示如下:
[0118]
ffn(x)=gelu(xw1)w2;
[0119]
其中w1,w2代表可学习的参数矩阵,gelu是引入随机正则思想的激活函数, x代表输入张量;
[0120]
循环传递下去,得到解码器最终输出hd
(l)
,并线性转换为通过最小化预测值和真实值之间的平均绝对误差(mae),利用优化器adam进行端到端的训练:
[0121][0122]
其中φ是isttm中训练的所有参数,y是下一个时间步长为q的真实速度, n是节点的数目,d代表节点的特征数(速度、流量、时间戳等等);
[0123]
最后,本技术的方法仅为较佳的实施方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
[0124]
此外,如果本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。本发明实施例的各种不同的实施方式之间也可以进行任意组合,只要不违背本发明实施例的思想,其同样应当视为本发明实施例所公开的内容。
技术特征:1.一种基于改进的时空transformer的交通流量预测方法,其特征在于,包括:步骤s1:使用编码器架构时空嵌入层来增强输入历史交通流量数据x的特征表示,时空嵌入层由节点的line嵌入、绝对位置嵌入、时间嵌入组成;步骤s2:采用各层编码器中的空间稀疏自注意力与层次扩散卷积的门控融合块对输入序列的动态空间依赖进行建模,利用时间自注意力捕捉非线性的时间关联,前者门控融合块是空间特征提取模块,后者是时间特征提取模块,两者组成了时空特征提取模块;步骤s3:利用各层编码器中的基于gelu激活函数和全连接组成的前馈神经网络来变换时空特征提取模块捕捉的时空特征,输出历史序列时空特征的最终表示;步骤s4:与编码器类似地,利用解码器架构中的时空嵌入层来增强输入的填充交通数据x
de
的特征表示;步骤s5:与编码器类似地,利用各层解码器中的时空特征提取模块来捕捉输入交通数据的时空特征;步骤s6:基于解码器捕捉到的时空特征,利用双重交叉注意力分别处理各层解码器的时空特征和编码器最终的历史时空表示,建立输入历史序列与输出未来序列之间的关联,预测每个未来时间步的交通流量,不仅模拟了编码的每一个历史时间步特征和预测的每一个未来时间步特征的交互,还突出某一个历史时间步对未来时间段整体的一般影响,进一步地减少预测未来流量的误差;步骤s7:与编码器类似,使用前馈神经网络来变换时空特征,并输出各层解码器的特征表示,循环传递下去,得到预测的未来序列的最终表示。2.如权利要求1所述的方法,其特征在于,时空嵌入层包括节点的line嵌入、绝对位置嵌入、时间嵌入,步骤s1具体包括:步骤s1.1:通过line图嵌入对有向加权的交通图邻接矩阵进行预训练,得出高阶邻接矩阵的嵌入信息x
line
,来用于计算空间注意力;步骤s1.2:通过绝对位置嵌入补充序列的顺序信息x
pe
;步骤s1.3:通过可学习的时间嵌入来对时间信息进行编码x
te
;步骤s1.4:将三种嵌入信息融入输入的历史时空数据中,可以表示为:he
(0)
=add(concat(x,x
line
),x
pe
,x
te
)其中3.如权利要求1所述的方法,其特征在于,步骤s2具体包括:步骤s2.1:空间稀疏自注意力负责捕捉历史时间序列下关键的动态空间依赖,将时空数据映射至高维的查询、键、值空间,利用最大均值衡量方法来计算节点查询对所有键的注意力分布与关注度很小的均匀分布的差异,取得差异值大的top-u个查询向量,并执行这些查询和键之间的缩放点积,更新节点的特征表示,进而捕捉到起主导作用的高阶空间依赖;步骤s2.2:时间层次扩散卷积挖掘不同时间层次下的局部空间依赖,使用基于通道分解的门控卷积与基于自适应图的扩散卷积来捕获多时间尺度下的局部空间特征;步骤s2.3:门控融合被用于自适应地分配动态空间依赖和局部空间依赖的权重;步骤s2.4:时间自注意力关注每个节点的重要时间步,用于捕捉全局的历史时间关联,直接关注跨时间步的特征,而不受访问输入序列中信息的任何限制。
4.如权利要求1所述的方法,其特征在于,步骤s2.1具体包括:步骤s2.1.1:首先,在第l层编码器中,将节点的隐藏状态he
(l-1)
分别线性变换为相同维度的查询矩阵q、键矩阵k、值矩阵v;步骤s2.1.2:然后,从q和k矩阵中随机采样n
s
=n*lnn个查询-值点积对,记作q_k,并执行注意力分数的稀疏性衡量:步骤s2.1.3:其次,根据稀疏衡量矩阵的计算数值,从查询矩阵q中选取数值偏大的top-u个查询向量,组合成新的查询矩阵提取强的空间相关性的节点特征,其中u=c1*lnn,c1是恒定的空间采样因子,相关公式如下:其中r1是部分节点特征表示;步骤s2.1.4:最后将v的均值代替未被选中的查询向量的特征表示r2,并与r1在节点上拼接,因为未被选取的点积对的关注度得分近似均匀分布,即相应的空间关联性太小:r2=mean(v)5.如权利要求1所述的方法,其特征在于,步骤s6具体包括:步骤s6.1:对于历史时间步和未来时间步之间的个体交互来说,分别将编码器最终的历史时空表示he
(l)
和第l层解码器的未来时空特征对应的每个节点特征嵌入x
n
和x
m
至另一个相同维度大小的嵌入空间,并生成它们点积对的查询向量q
n
和键向量k
m
,相关公式如下所示:q
n
=w
q
x
n
k
m
=w
k
x
m
其中分别作为查询向量和键向量线性变换的可学习参数矩阵;步骤s6.2:然后,为了适当地降低he
(l)
和的成对相关性,本文通过以下处理查询向量和键向量:a
c
(x
m
,x
n
)=δ((q
n-μ
q
)
t
(k
m-μ
k
))其中δ(
·
)是softmax函数;和分别代表所有查询向量和键向量的平均值,l1和l2分别表示编码器与解码器的输入数据序列长度,x
i
和x
j
分别是的第i个特征嵌入和he
(l)
的第j个特征嵌入;步骤s6.3:对于历史时间步对未来时间段整体交互来说,类似地,本文重新转换为query
′
,并按时间维度平均query
′
,得到解码器未来时间段整体的特征表示query
′
u
,μ
′
q
是内部的嵌入向量,相关公式如下所示:a
u
(x
m
,x
n
)=δ((μ
′
q
)
t
k
m
)
其中用于反映出编码器编码的时空特征对时空特征一般的整体影响。步骤s6.4:将步骤s6.2中的个体交互和步骤s6.3的整体交互得到的两种关注度平均化,相关公式如下所示:步骤s6.5:根据历史时间步与未来时间步最终的交互结果,将he
(l)
线性变换后的值向量v
m
乘以相应的影响程度后相加,得出数据与he
(l)
在时间上的动态交互后输出的隐藏表示,相关公式如下:v
m
=wvx
m
其中h是多头的数目。6.如权利要求1所述的方法,其特征在于,步骤s7具体包括:将双重交叉注意力输出的隐藏表示经过前馈神经网络变换,过程表示如下:ffn(x)=gelu(xw1)w2其中w1,w2代表可学习的参数矩阵;gelu是引入随机正则思想的激活函数;x代表输入张量。循环传递下去,得到解码器最终输出hd
(l)
,并线性转换为通过最小化预测值和真实值之间的平均绝对误差(mae),利用优化器adam进行端到端的训练,其损失函数如下:其中φ是isttm中训练的所有参数,y是下一个时间步长为q的真实速度,n是节点的数目,d代表节点的特征数。
技术总结本发明公开了一种改进的时空Transformer的交通流量预测方法,是一种基于编解码器的架构。编码器对历史流量特征进行编码,解码器预测未来序列。编码器由时空嵌入层、时空特征提取模块、前馈神经网络三个部分组成,解码器与编码器结构类似,但比编码器多出一个连接编码器和解码器的双重交叉注意力。其中,时空嵌入层是包括LINE图嵌入、位置嵌入、时间嵌入;时空特征提取模块包括空间稀疏自注意力、时间层次扩散卷积以及时间自注意力。首先,编码器将空间稀疏自注意力和时间层次扩散卷积相结合,捕捉交通流量的动态空间相关性和局部空间特征,再利用时间自注意力建模非线性时间相关性;接着,解码器与编码器类似地挖掘出输入序列的时空特征。最后,基于编解码器提取的时空特征,采用双重交叉注意力模拟历史交通观测对未来预测的影响,建模每个历史时间步和每个未来时间步的直接关系以及对整个未来时间段的影响,并输出未来交通流量的最终表示。输出未来交通流量的最终表示。输出未来交通流量的最终表示。
技术研发人员:高榕 万以亮 邵雄凯
受保护的技术使用者:湖北工业大学
技术研发日:2022.07.05
技术公布日:2022/11/1