一种面向联邦学习的移动边缘计算资源管理方法

专利2023-05-11  131



1.本发明涉及边缘计算领域,具体涉及一种面向联邦学习的移动边缘计算资源管理方法。


背景技术:

2.随着移动通信网络的不断演进,超五代(b5g,beyond the 5th generation)、第六代(6g,the 6th generation)网络将带来新型业务场景,如自动驾驶、工业控制、增强/虚拟现实等,这些场景对带宽、时延、功耗、可靠性等指标提出了更高的要求。对应的海量无线接入设备所需的高效快速的资源调度,也将给网络带来巨大的挑战。
3.为了解决上述问题,移动边缘计算(mec,mobile edge computing)概念被提出。通过边缘计算,终端设备可以卸载部分或全部计算任务到基站等网络边缘节点,拓展了终端设备计算能力。相对于集中到云端的计算方法,能够有效降低任务处理时延,减轻核心网的流量压力,保障数据私密性与安全性。基于边缘计算的移动边缘网络的核心思想是将网络的资源、内容和功能迁移到网络边缘,从而提升网络整体的资源调度效率,其资源管理方法对系统的性能有着重要影响。
4.面对未来网络复杂化的发展趋势,人工智能和数据驱动的移动边缘网络资源调度方法成为了下一代智能网络的关键推动力并受到了广泛关注。采用联邦学习(federated learning,fl)方法使地理分布的设备能够协同执行资源调度模型训练,同时保持原始数据在本地进行处理,从而避免隐私敏感数据在无线信道上的传输的同时显著减少通信开销。然而,由于资源受限的边缘设备和和聚合误差之类的问题将严重降低联邦学习系统的收敛速度和预测精度。因此,需要有效的人工智能方法适配来完成资源的调度。
5.为了解现有技术的发展状况,对已有的专利和文献进行了检索、比较和分析,筛选出如下与本发明相关度比较高的技术信息:
6.专利方案1:cn113791895a基于联邦学习的边缘计算及资源优化方法,公开了基于联邦学习的边缘计算及资源优化方法。在小基站部署天线阵列,获取下行链路的信道信息,形成信道和预编码作为输入输出对的训练数据,在此数据支撑之下进行联邦学习,最后达到输入信道信息得到相应的预编码信息的目的。在此过程之中,为了得到较为稳定的学习联盟以及将系统能耗控制在最低状态来进行用户选择,即通过各节点的物理特性在众多用户中选择计算能力和通信能力稳定的用户参与到训练中;并引入合同机制对参与训练的用户进行奖励,计算每个用户的收入与付出的训练成本得到效用函数,对用户进行资源分配使得整个系统效用达到最大。缺陷:该方案以各节点的物理特性优劣为依据进行用户选择,来得到稳定的学习联盟和较低的能耗。但是经过选择之后必然导致覆盖用户的减少,需权衡服务覆盖面和训练质量。
7.专利方案2:cn109862592a一种基于多基站协作的移动边缘计算环境下资源管理和调度方法,公开了一种基于多基站协作的移动边缘计算环境下资源管理和调度方法。该方法包括:移动边缘计算智能基站利用接收、控制、缓存、计算、发送这五个单元来进行资源
的分配和调度。当移动终端有新的计算任务时,上传迁移请求到所属的智能基站;任务由管理算法确定是在智能基站、相邻基站还是云端中执行。若任务数据已被缓存,则直接执行任务;若任务数据未被缓存,则任务的数据请求将被发送到云端。该发明可以同时优化传输和计算时延、缓存分配、系统收益等方面。缺陷:该方案重在基站协作,通过缓存的方式减少因请求数据带来的时延等开销。但面临较大规模网络场景时,基站缓存策略最优解与网络负载管理可能会产生冲突,决策的全局性有待商榷,同时基站之间的通信开销也会增加网络负载。
8.专利方案3:cn114168328a一种基于联邦学习的移动边缘节点计算任务调度方法及其系统,公开了一种基于联邦学习的移动边缘节点计算任务调度方法及其系统,具体包括以下步骤:初始化信息参数;对部署在各个移动边缘节点的dqn网络进行本地训练;判断dqn网络训练过程中,更新轮数是否满足聚合频率;若更新轮数满足聚合频率,进行全局参数更新;再判断dqn网络训练过程中,训练回合数是否达到指定次数;若训练回合数达到指定次数,输出结果。该专利从计算任务执行顺序的角度考虑,提供了一种移动边缘计算系统中计算任务调度方法,利用多个移动边缘节点的协同缩短了计算任务完成时间。缺陷:该方案通过合理规划在边缘端排队的计算任务的执行顺序,有效缩短了联邦学习平均时延。但是每轮次训练是否完成的依据取决于dqn算法本身,并不能确定是否适用于其他场景下的训练任务。


技术实现要素:

9.本发明的目的是面向未来边缘网络的发展需求,基于边缘网络中使用联邦学习架构进行机器学习的场景,提出一种面向联邦学习的移动边缘计算资源管理方法,从而降低联邦学习系统的整体成本。
10.本发明采用的技术方案为:
11.一种面向联邦学习的移动边缘计算资源管理方法,包括以下步骤:
12.(1)构建联邦边缘学习框架,包括一个云服务器s、一组移动边缘服务器k、多个设备集合n以及每个设备拥有的数据集dn;
13.(2)设备进行局部模型计算,然后传输到关联的边缘服务器,边缘服务器进行边缘聚合,得到总能量成本和通信延迟;
14.(3)基于总能量成本和通信延迟建立优化问题;
15.(4)将优化问题分解为两个关键子问题:单个边缘服务器内的资源分配和跨多个边缘服务器的边缘关联问题,计算出最佳资源分配。
16.进一步的,步骤(2)具体包括以下步骤:
17.s1局部模型计算:令qn为设备n训练本地模型时处理单位数据样本所需的平均cpu周期,在一次局部迭代中,总共需要|dn|qn个cpu周期来处理训练数据样本dn,将fn表示为设备为任务计算而分配的cpu频率;为了实现同一模型的所有设备共有的局部精度θ∈(0,1),移动设备n的迭代次数为其中常数μ取决于数据大小和机器学习任务;从而得出一次局部计算所花费的时间为:
[0018][0019]
设备n产生的l(θ)次局部迭代的能量成本如下:
[0020][0021]
其中表示设备n上芯片的有效电容系数;
[0022]
s2局部模型上传:在完成l(θ)次局部迭代后,每个设备n将其局部模型更新传输到选定的边缘服务器i,然后对于边缘服务器i,与边缘服务器i的关联的设备集表征为
[0023]
设备n的传输速率rn为:
[0024][0025]
其中bi是边缘服务器i的总带宽,β
i:n
是设备n的带宽分配比率,n0是背景噪声,pn是传输功率,hn是设备n的信道增益,设定在一轮局部学习时间内hn是恒定的;
[0026]
设备n更新的局部模型参数的数据大小为dn,因此得出传输到边缘服务器的时间为:
[0027][0028]
设备n传输局部模型参数的能耗为:
[0029][0030]
s3边缘模型聚合:每个边缘服务器i从其连接的设备集mi接收更新的模型参数之后,边缘服务器i利用这些参数,更新位于服务器的聚合模型,即全局模型,再将聚合模型继续广播到与其连接的设备集mi中,返回步骤s1,直到边缘服务器i达到对所有服务器都相同的边缘精度ε,边缘迭代次数为:
[0031][0032]
其中δ是一个取决于学习任务的常数;
[0033]
在i(ε,θ)次边缘迭代之后,边缘服务器i的总能量成本e为:
[0034][0035]
边缘服务器i实现边缘精度ε的计算和通信延迟t为:
[0036][0037]
进一步的,步骤(3)中的优化问题为:
[0038][0039]
其中(c1)和(c2)分别表示上行通信资源约束和计算能力约束,(c3)和(c4)表示确保系统中的所有设备都参与模型训练,(c5)表示要求每个设备都需要与一台边缘服务器关联,λe,λ
t
∈[0,1]分别表示能量和延迟的重要性加权指标。
[0040]
进一步的,步骤(4)具体包括以下步骤:
[0041]
将优化问题分解为两个关键子问题:单个边缘服务器内的资源分配问题和跨多个边缘服务器的边缘关联问题,最终达到最小化延迟和能量消耗的目标;其中资源分配问题采用算法1解决,边缘关联问题采用算法2解决;
[0042]
算法1具体如下:
[0043]
不考虑边缘关联,即忽略约束c4-c6,专注于单个边缘服务器内的最优开销最小化问题,在给定设备集的情况下,利用凸优化求解器解决边缘服务器下的计算资源分配子问题;
[0044]
通信资源的分配由下式得到,推导出最优带宽分配
[0045][0046][0047]en
=l(θ)qn|dn|
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(12)
[0048][0049]bi
是边缘服务器i的带宽,是的立方,a
n b
n en都是与设备n本身的具体设置有关的常数;
[0050]
算法2具体如下:
[0051]
s1:首先执行初始边缘关联策略,每个设备连接到最近的边缘服务器,此时每个设备都有对应的边缘服务器,然后每个边缘服务器调用算法1解决该边缘服务器内设备的最佳资源分配问题;
[0052]
s2:在确定各边缘服务器内的资源分配情况之后,考虑不同边缘服务器覆盖下的
设备的边缘关联情况;计算指标如果设备的“传递或交换”会导致这个值减少,则允许调整,否则不作调整;其中传递为将设备n从连接的边缘服务器设备集mi移到另外一个边缘服务器的设备集mj中,交换为把两个边缘服务器的设备集mi和mj内的设备整体交换到对方的关联集合内;
[0053]
s3:重复进行s2,直到不能再进行设备调整,得到最优边缘关联策略。
[0054]
本发明相比现有技术的优点为:
[0055]
本发明目标是优化移动边缘网络中的联邦学习资源分配和设备关联。首先针对边缘网络融合机器学习的发展趋势和现有研究的缺陷,提出了云边端联邦学习三层框架,并以此为基础进行分析,制定了一个综合考虑计算、通信资源分配和边缘关联的优化模型。然后再将问题分解为两个关键子问题,依次设计算法求解,最终实现对原问题的高效近似求解。与传统的联邦学习相比,本发明提出的框架在全局成本优化方面优于基准方案,并实现了更好的训练性能。
附图说明
[0056]
图1为本发明整体流程图。
[0057]
图2为本发明云边端联邦学习架构图。
[0058]
图3为本发明联合边缘关联资源分配算法流程图。
[0059]
图4为本发明方法与传统方式对比图。
具体实施方式
[0060]
下面结合附图1-4对本发明作进一步解释说明。
[0061]
一种面向联邦学习的移动边缘计算资源管理方法,如图1所示,包括以下步骤:
[0062]
(1)构建联邦边缘学习框架,包括一个云服务器s、一组移动边缘服务器k、多个设备集合n以及每个设备拥有的数据集dn;如图2所示;
[0063]
(2)设备进行局部模型计算,然后传输到关联的边缘服务器,边缘服务器进行边缘聚合,得到总能量成本和通信延迟;
[0064]
具体包括以下步骤:
[0065]
s1局部模型计算:令qn为设备n训练本地模型时处理单位数据样本所需的平均cpu周期,在一次局部迭代中,总共需要|dn|qn个cpu周期来处理训练数据样本dn,将fn表示为设备为任务计算而分配的cpu频率;为了实现同一模型的所有设备共有的局部精度θ∈(0,1),移动设备n的迭代次数为其中常数μ取决于数据大小和机器学习任务;从而得出一次局部计算所花费的时间为:
[0066][0067]
设备n产生的l(θ)次局部迭代的能量成本如下:
[0068][0069]
其中表示设备n上芯片的有效电容系数;
[0070]
s2局部模型上传:在完成l(θ)次局部迭代后,每个设备n将其局部模型更新传输到选定的边缘服务器i,然后对于边缘服务器i,与边缘服务器i的关联的设备集表征为
[0071]
设备n的传输速率rn为:
[0072][0073]
其中bi是边缘服务器i的总带宽,β
i:n
是设备n的带宽分配比率,n0是背景噪声,pn是传输功率,hn是设备n的信道增益,设定在一轮局部学习时间内hn是恒定的;
[0074]
设备n更新的局部模型参数的数据大小为dn,因此得出传输到边缘服务器的时间为:
[0075][0076]
设备n传输局部模型参数的能耗为:
[0077][0078]
s3边缘模型聚合:每个边缘服务器i从其连接的设备集mi接收更新的模型参数之后,边缘服务器i利用这些参数,更新位于服务器的聚合模型,即全局模型,再将聚合模型继续广播到与其连接的设备集mi中,返回步骤s1,直到边缘服务器i达到对所有服务器都相同的边缘精度ε,边缘迭代次数为:
[0079][0080]
其中δ是一个取决于学习任务的常数;
[0081]
在i(ε,θ)次边缘迭代之后,边缘服务器i的总能量成本e为:
[0082][0083]
边缘服务器i实现边缘精度ε的计算和通信延迟t为:
[0084][0085]
(3)基于总能量成本和通信延迟建立优化问题;
[0086]
优化问题为:
[0087][0088]
其中(c1)和(c2)分别表示上行通信资源约束和计算能力约束,(c3)和(c4)表示确保系统中的所有设备都参与模型训练,(c5)表示要求每个设备都需要与一台边缘服务器关联,λe,λ
t
∈[0,1]分别表示能量和延迟的重要性加权指标。
[0089]
(4)将优化问题分解为两个关键子问题:单个边缘服务器内的资源分配和跨多个边缘服务器的边缘关联问题,计算出最佳资源分配。
[0090]
如图3所示,具体包括以下步骤:
[0091]
将优化问题分解为两个关键子问题:单个边缘服务器内的资源分配问题和跨多个边缘服务器的边缘关联问题,最终达到最小化延迟和能量消耗的目标;其中资源分配问题采用算法1解决,边缘关联问题采用算法2解决;
[0092]
算法1具体如下:
[0093]
不考虑边缘关联,即忽略约束c4-c6,专注于单个边缘服务器内的最优开销最小化问题,在给定设备集的情况下,利用凸优化求解器解决边缘服务器下的计算资源分配子问题;
[0094]
通信资源的分配由下式得到,推导出最优带宽分配
[0095][0096][0097]en
=l(θ)qn|dn|
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(12)
[0098][0099]bi
是边缘服务器i的带宽,是的立方,a
n b
n en都是与设备n本身的具体设置有关的常数;
[0100]
算法2具体如下:
[0101]
s1:首先执行初始边缘关联策略,每个设备连接到最近的边缘服务器,此时每个设备都有对应的边缘服务器,然后每个边缘服务器调用算法1解决该边缘服务器内设备的最佳资源分配问题;
[0102]
s2:在确定各边缘服务器内的资源分配情况之后,考虑不同边缘服务器覆盖下的设备的边缘关联情况;计算指标如果设备的“传递或交换”会导致这个值减少,则允许调整,否则不作调整;其中传递为将设备n从连接的边缘服务器设备集mi移到另外一个边缘服务器的设备集mj中,交换为把两个边缘服务器的设备集mi和mj内的设备整体交换到对方的关联集合内;
[0103]
s3:重复进行s2,直到不能再进行设备调整,得到最优边缘关联策略。
[0104]
本发明实例的具体分析步骤如下:
[0105]
s11、本发明进行仿真以评估所提出的云边端联邦学习框架在测试准确度、训练准确度和训练损失方面的性能以及提出的资源调度算法的性能。仿真实验设置如下表,所有的设备和边缘服务器随机分布在整个500m
×
500m的区域内。
[0106][0107]
表1仿真参数设置表
[0108]
s12、如图4所示,左图显示了本专利提出的算法的广域网通信效率相对于传统的设备-云集中式fl的巨大优势。在没有边缘聚合的情况下,有n个设备的本地模型参数通过广域网传输到远程云。而在本发明提出的框架中,边缘聚合后,只有k(通常为k《《n)个边缘服务器的边缘模型,每个边缘模型的大小与本地模型相似,被传输到云端。通过边缘模型聚合可以在节省相当多的通信开销。右图显示了本发明提出的框架中的无线通信开销随着本地迭代次数的增加而减少。而传统设备-云fl的无线开销保持较低,这是因为传统方式下每个设备仅通过一次无线连接将本地模型传输到边缘服务器,而新提出的框架需要边缘服务器和设备之间频繁通信,这会导致更多无线数据传输资源的消耗。如果目标是最小化设备
训练开销,应该在局部迭代次数和边缘迭代次数之间进行权衡。

技术特征:
1.一种面向联邦学习的移动边缘计算资源管理方法,其特征在于,包括以下步骤:(1)构建联邦边缘学习框架,包括一个云服务器s、一组移动边缘服务器k、多个设备集合n以及每个设备拥有的数据集d
n
;(2)设备进行局部模型计算,然后传输到关联的边缘服务器,边缘服务器进行边缘聚合,得到总能量成本和通信延迟;(3)基于总能量成本和通信延迟建立优化问题;(4)将优化问题分解为两个关键子问题:单个边缘服务器内的资源分配和跨多个边缘服务器的边缘关联问题,计算出最佳资源分配。2.根据权利要求1所述的面向联邦学习的移动边缘计算资源管理方法,其特征在于,步骤(2)具体包括以下步骤:s1局部模型计算:令q
n
为设备n训练本地模型时处理单位数据样本所需的平均cpu周期,在一次局部迭代中,总共需要|d
n
|q
n
个cpu周期来处理训练数据样本d
n
,将f
n
表示为设备为任务计算而分配的cpu频率;为了实现同一模型的所有设备共有的局部精度θ∈(0,1),移动设备n的迭代次数为其中常数μ取决于数据大小和机器学习任务;从而得出一次局部计算所花费的时间为:设备n产生的l(θ)次局部迭代的能量成本如下:其中表示设备n上芯片的有效电容系数;s2局部模型上传:在完成l(θ)次局部迭代后,每个设备n将其局部模型更新传输到选定的边缘服务器i,然后对于边缘服务器i,与边缘服务器i的关联的设备集表征为设备n的传输速率r
n
为:其中b
i
是边缘服务器i的总带宽,β
i:n
是设备n的带宽分配比率,n0是背景噪声,p
n
是传输功率,h
n
是设备n的信道增益,设定在一轮局部学习时间内h
n
是恒定的;设备n更新的局部模型参数的数据大小为d
n
,因此得出传输到边缘服务器的时间为:设备n传输局部模型参数的能耗为:
s3边缘模型聚合:每个边缘服务器i从其连接的设备集m
i
接收更新的模型参数之后,边缘服务器i利用这些参数,更新位于服务器的聚合模型,即全局模型,再将聚合模型继续广播到与其连接的设备集m
i
中,返回步骤s1,直到边缘服务器i达到对所有服务器都相同的边缘精度ε,边缘迭代次数为:其中δ是一个取决于学习任务的常数;在i(ε,θ)次边缘迭代之后,边缘服务器i的总能量成本e为:边缘服务器i实现边缘精度ε的计算和通信延迟t为:3.根据权利要求2所述的面向联邦学习的移动边缘计算资源管理方法,其特征在于,步骤(3)中的优化问题为:其中(c1)和(c2)分别表示上行通信资源约束和计算能力约束,(c3)和(c4)表示确保系统中的所有设备都参与模型训练,(c5)表示要求每个设备都需要与一台边缘服务器关联,λ
e

t
∈[0,1]分别表示能量和延迟的重要性加权指标。4.根据权利要求3所述的面向联邦学习的移动边缘计算资源管理方法,其特征在于,步骤(4)具体包括以下步骤:将优化问题分解为两个关键子问题:单个边缘服务器内的资源分配问题和跨多个边缘服务器的边缘关联问题,最终达到最小化延迟和能量消耗的目标;其中资源分配问题采用算法1解决,边缘关联问题采用算法2解决;算法1具体如下:不考虑边缘关联,即忽略约束c4-c6,专注于单个边缘服务器内的最优开销最小化问题,在给定设备集的情况下,利用凸优化求解器解决边缘服务器下的计算资源分配子问题;通信资源的分配由下式得到,推导出最优带宽分配通信资源的分配由下式得到,推导出最优带宽分配
e
n
=l(θ)q
n
d
n
(12)b
i
是边缘服务器i的带宽,是的立方,a
n
b
n
e
n
都是与设备n本身的具体设置有关的常数;算法2具体如下:s1:首先执行初始边缘关联策略,每个设备连接到最近的边缘服务器,此时每个设备都有对应的边缘服务器,然后每个边缘服务器调用算法1解决该边缘服务器内设备的最佳资源分配问题;s2:在确定各边缘服务器内的资源分配情况之后,考虑不同边缘服务器覆盖下的设备的边缘关联情况;计算指标如果设备的“传递或交换”会导致这个值减少,则允许调整,否则不作调整;其中传递为将设备n从连接的边缘服务器设备集m
i
移到另外一个边缘服务器的设备集m
j
中,交换为把两个边缘服务器的设备集m
i
和m
j
内的设备整体交换到对方的关联集合内;s3:重复进行s2,直到不能再进行设备调整,得到最优边缘关联策略。

技术总结
本发明涉及边缘计算领域,具体涉及一种面向联邦学习的移动边缘计算资源管理方法。本发明首先提出了一个联邦边缘学习框架,并制定了一个综合考虑计算、通信资源分配和边缘关联的模型,以最小化全局学习成本。再将该优化问题分解为两个子问题:资源分配和边缘关联,并据此设计了一种高效的资源调度算法。先求解给定单个边缘服务器的训练组,资源分配子问题的最优策略,再通过降低复杂度的迭代为多边缘服务器边缘关联问题求解一个可行的策略,从而高效逼近原问题最优解。与传统的联邦学习相比,本发明提出的框架在全局成本优化方面优于基准方案,并实现了更好的训练性能。并实现了更好的训练性能。并实现了更好的训练性能。


技术研发人员:霍永华 宋春晓 闫继垒 杨国瑞 喻鹏 杨杨 谭灿 王浩
受保护的技术使用者:北京邮电大学
技术研发日:2022.07.25
技术公布日:2022/11/1
转载请注明原文地址: https://tieba.8miu.com/read-2587.html

最新回复(0)