一种节能的在网联邦学习网络和方法与流程

专利2023-11-12  96



1.本技术涉及通信和计算机技术领域,尤其涉及一种基于在网联邦学习的网络节能方法及装置。


背景技术:

2.随着5g时代的到来,网络业务越来越丰富,数据量的产生呈指数级增长,数据的传输给网络带来了巨大的压力。尤其b5g或6g网络的智能化加速发展,存在两方面的问题:网络数据本身的传输、ai训练过程中参数的传输,都带来了非常大的通信开销、传输时延,且缺乏安全性,数据的隐私保护也面临挑战,因此一种绿色、节能且安全的网络架构和方法是至关重要的。
3.在网计算技术作为近数据处理技术的重要分支,为加速大规模分布式应用带来了前所未有的契机。联邦学习可以在数据不出本地的情况下构建机器学习系统,这有助于确保隐私并降低通信成本。因此,是一种助力实现绿色、节能且安全的网络架构的关键技术。
4.但是联邦学习自身技术也存在一些弊端,其各参与方和聚合方之间的参数传输也会带来一定的通信开销和传输时延。联邦学习需要多个节点紧密协同处理,对节点间的通信带宽和延迟要求很高。在训练过程中产生大量的参数,极有可能造成网络拥塞。


技术实现要素:

5.本技术实施例提供一种节能的在网联邦学习网络和方法,用于解决现有技术中参数的传输网络开销较大,以及传输参数数量和传输距离较大导致对模型的收敛造成较大时延的问题。
6.第一方面,本技术提出一种节能的在网联邦学习网络,包括服务器、多个边缘节点以及连接所述服务器和所述多个边缘节点的交换机网络。
7.所述服务器,用于构建联邦学习的初始模型、下发到所述边缘节点;
8.所述交换机网络中的至少一个为可编程交换机,所述可编程交换机用于模型训练过程中梯度向量或模型参数在网聚合;
9.所述边缘节点,用于进行模型训练,接收聚合后的参数,再将更新的参数传输到所述可编程交换机。
10.优选地,所述可编程交换机包含可编程的数据处理器,用于实现模型训练过程中梯度向量或模型参数在网聚合。
11.优选地,在所述边缘节点和所述可编程交换机之间的传输层协议中,包含第一标识信息和负载。所述第一标识信息用于表示迭代次数;所述负载包含梯度向量或模型参数。进一步优选地,所述负载中还包含表示数据量的信息。
12.优选地,所述交换机网络中包含多个可编程交换机。以多个边缘节点和共同可达的至少一个可编程交换机构成在网联邦学习的网络,其中选择的可编程交换机使各节点到选择的可编程交换机之间的跳数总和最少。
13.进一步优选地,所述交换机网络的通信协议中包含第二标识;所述第二标识,用于表示优先转发用于聚合的梯度向量或模型参数。
14.第二方面,本技术还出一种在网联邦学习网络节能方法,用于本技术任意一项实施例所述网络,包含以下步骤:
15.选定参与联邦学习的多个边缘节点;
16.以选定的多个边缘节点到共同可达的可编程交换机的跳数之和最少为准则,选择用于参与聚合的可编程交换机;
17.将联邦学习的初始模型部署到所述选定的多个边缘节点,这些边缘节点利用本地数据进行模型参数更新;
18.在边缘节点迭代n次后,将更新的梯度向量或模型参数发送到可编程交换机;可编程交换机对各个边缘节点迭代次数相同的梯度向量或模型参数进行聚合计算后,再发送到所述多个边缘节点;
19.重复进行迭代计算和聚合计算,直到训练结束。
20.优选地,在所述选定的多个边缘节点和用于聚合计算的可编程交换机之间的任一交换机,响应于通信协议中包含的设定字符,优先转发用于聚合的梯度向量或模型参数。
21.第三方面,本技术实施例提供一种电子设备,包括存储器、处理器及存储在存储器上的计算机程序,并可在处理器运行所述计算机程序时实现第一方面任一所述方法。
22.第四方面,申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面任一所述的方法。
23.本技术实施例采用的上述至少一个技术方案能够达到以下有益效果:
24.能够在数据不出本地的情况下进行模型的联合训练,在传统网络协议基础上进行改进和自定义,提出在交换设备上完成大数据的聚合操作。为了满足在网计算需求,提出可编程交换机,它为用户提供了一个完全开放的数据转发平面,用户可以根据需求灵活地定制网络功能,并实现对数据包的线速转发。因此,本专利提出将利用可编程交换机上进行联邦学习训练过程中参数的聚合,减小了参数传输距离,进而减小传输时延,从而减小梯度或者模型参数聚合开销,提供了更低的端到端通信时间。
附图说明
25.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
26.图1为现有技术的在网联邦学习网络框架结构;
27.图2为本说明书实施例提供的参数聚合模型框架结构示意图;
28.图3为本说明书实施例提供的协议改进第一种情况示意图;
29.图4为本说明书实施例提供的协议改进第二种情况示意图;
30.图5为本说明书实施例提供的结合协议的方法流程示意图;
31.图6为本说明书实施例提供的装置结构示意图。
具体实施方式
32.为使本技术的目的、技术方案和优点更加清楚,下面将结合本技术具体实施例及
相应的附图对本技术技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
33.以下结合附图,详细说明本技术各实施例提供的技术方案。
34.图1为现有技术的在网联邦学习网络框架结构。
35.第一种:边缘节点将数据发送到服务器/云端,服务器/云端基于这些数据构建模型进行集中式训练。此方案缺点在于边缘节点的数据量很大,其传输开销巨大,会带来通信的压力和传输时延。
36.第二种方式:边缘节点数据不出局,服务器/云端构建联邦学习模型,将构建的初始模型下发到边缘节点,边缘节点基于初始模型利用本地数据进行模型训练,将更新后的参数传输到服务器/云端进行参数的聚合,服务器/云端将聚合后的参数再次下发给各边缘节点,边缘节点继续下一轮的参数迭代更新,不断循环直至模型收敛。此方案较第一种方案在数据传输上和数据安全不出局上均有较大改进,但是参数的传输同样带来较大的网络开销,对于模型的收敛速度来讲也有一定时延。
37.图2为本说明书实施例提供的参数聚合模型框架结构示意图。
38.本技术提出一种节能的在网联邦学习网络,包括服务器、多个边缘节点以及连接所述服务器和所述多个边缘节点的交换机网络。
39.所述服务器,用于构建联邦学习的初始模型、下发到所述边缘节点;
40.所述交换机网络中的至少一个为可编程交换机,所述可编程交换机用于模型训练过程中梯度向量或模型参数在网聚合;
41.所述边缘节点,用于进行模型训练,接收聚合后的参数,再将更新的参数传输到所述可编程交换机。
42.优选地,所述可编程交换机包含可编程的数据处理器,用于实现模型训练过程中梯度向量或模型参数在网聚合。
43.优选地,在所述边缘节点和所述可编程交换机之间的传输层协议中,包含第一标识信息和负载。所述第一标识信息用于表示迭代次数;所述负载包含梯度向量或模型参数。进一步优选地,所述负载中还包含表示数据量的信息。
44.优选地,所述交换机网络中包含多个可编程交换机。以多个边缘节点和共同可达的至少一个可编程交换机构成在网联邦学习的网络,其中选择的可编程交换机使各节点到选择的可编程交换机之间的跳数总和最少。
45.进一步优选地,所述交换机网络的通信协议中包含第二标识;所述第二标识,用于表示优先转发。
46.专利提出了一种基于在网联邦学习的网络节能框架,较传统方案,其框架中主要涉及可编程交换机和边缘节点,边缘节点具备一定的存储和计算能力,存储了数据和可基于数据进行模型训练。可编程交换机可根据需求灵活制定网络功能,本专利一方面在可编程交换机数据平面开发参数聚合计算功能,为解决联邦学习训练过程中梯度向量或模型参数的聚合问题。另一方面,支持定制化协议的解析和转发,即可根据在传统网络协议基础上改进的协议进行解析从而获取携带内容,并按自定义规则进行转发。
47.进一步说明,将每个所述边缘节点的更新数据发送至所述选定的可编程交换机,
包括:在tcp/udp后面增加数据标识对更新数据进行标识,以及,在tcp/udp后面增加数据标识对更新数据进行标识。
48.图3~4为本说明书实施例提供的协议改进的示意图。
49.作为所述第一标识的例子,在tcp/udp后面增加“seg n”标识和负载(payload)信息,n表示参与方(边缘节点)的模型迭代次数,“seg n”标识一方面能标识第多少次的迭代信息,可为可编程交换机在参数聚合时提供依据,将各参与方“seg n”标识相同的参数进行聚合计算。另一方面“seg n”中的“seg”可表示负载信息的开始,以便可编程交换机的数据平面提取负载具体内容。在参与方将本地迭代后的梯度向量/模型参数发送到参数聚合方(可编程交换机)时,其携带的负载信息中至少包括“参与方的梯度向量/模型参数”和“数据量”,如图3所示,也可根据实际训练情况增加其它信息。在参数聚合方将聚合后的梯度向量/模型参数发送到参与方时,其携带的负载信息中至少包括“聚合方更新后的梯度向量/模型参数”。如图4所示,也可以根据实际情况增加其他信息。
50.优选地,“seg n”标识可以为四个字节,n用二进制表示。
51.如图3~4所示,作为所述第二标识的例子,在ip协议头中使用服务类型tos(type of service)字段来识别具有专门协议的数据包,本专利用tos的值来标记对不同的ip流进行优先级排序。tos 0表示优先级高,tos 1表示优先级低。若训练任务紧急,设定tos value为tos 0,经过的交换机将进行优先转发处理,若训练任务不紧急,设定tos value为tos 1,可按照传统ip数据包正常转发即可。
52.图5为本说明书实施例提供的结合协议的方法流程示意图。
53.本技术还出一种在网联邦学习网络节能方法,用于本技术任意一项实施例所述网络,包含以下步骤:
54.步骤201、选定参与联邦学习的多个边缘节点;以选定的多个边缘节点到共同可达的可编程交换机的跳数之和最少为准则,选择用于参与聚合的可编程交换机。
55.为确定联邦学习组成框架,首先,根据数据分布情况确定哪些边缘节点作为联邦学习的参与方,再以选定的这些边缘节点到可共同可达的可编程交换机的跳数之和最少为准则,选择用于参数聚合的可编程交换机,从而确定了参数聚合方和参与方。
56.实施例如下:如图2所示,
57.若确定边缘节点1、边缘节点2、边缘节点3为参与方,以到可共同可达的可编程交换机的跳数之和最少为准则,应选择可编程交换机s3为参数聚合方,共同组成联邦学习框架;
58.若确定边缘节点1、边缘节点2、边缘节点3、边缘节点4为参与方,以到可共同可达的可编程交换机的跳数之和最少为准则,应选择可编程交换机s1为参数聚合方,共同组成联邦学习框架;
59.若确定边缘节点1、边缘节点2、边缘节点3、边缘节点4、边缘节点5、边缘节点6为参与方,以到可共同可达的可编程交换机的跳数之和最少为准则,应选择可编程交换机s0为参数聚合方,共同组成联邦学习框架。
60.步骤202、将联邦学习的初始模型部署到所述选定的多个边缘节点,这些边缘节点利用本地数据进行模型参数更新;
61.步骤203、在边缘节点迭代n次后,将更新的梯度向量或模型参数发送到可编程交
换机;
62.优选地,在所述选定的多个边缘节点和用于聚合计算的可编程交换机之间的任一交换机,响应于通信协议中包含的设定字符,优先转发用于聚合的梯度向量或模型参数。
63.例如,参与方在本地迭代n次(可根据模型自定义)后,将更新后的梯度或者模型参数wi各自发送到作为参数聚合方的可编程交换机上;如果中间需要经过其它交换机,若训练任务紧急,这些交换机可根据协议中的tos value标识,进行优先转发处理,若训练任务不紧急,可按照传统ip数据包正常转发即可。
64.步骤204、可编程交换机对各个边缘节点迭代次数相同的梯度向量或模型参数进行聚合计算后,再发送到所述多个边缘节点;
65.作为参数聚合方的可编程交换机解析协议中的字段,将各参与方“seg n”标识相同的梯度或者模型参数w进行聚合计算,聚合计算包括算术平均、加权平均等,其中加权平均的权重设置可根据各参与方发送的数据量大小设定。然后将聚合后的梯度或者模型参数w发送到各参与方。
66.步骤205、各参与方收到聚合后的梯度或者模型参数w后更新模型,继续迭代训练。
67.步骤206、重复进行迭代计算和聚合计算,直到训练结束。
68.例如,重复步骤203~205,直至模型收敛、达到最大迭代次数或者达到最长训练时间。
69.因此,本技术的上述实施例,提出了一种基于在网联邦学习的网络框架及方法流程,保证在网络原数据不出本地的情况下进行模型的联合训练,在传统网络协议基础上进行改进和自定义,用于梯度向量或者模型参数的传输,然后利用可编程交换机进行模型训练过程中梯度向量或模型参数的在网聚合,从而实现了网络的绿色、节能且安全。
70.本技术的基于在网联邦学习的网络节能框架,较传统方案,其框架中主要涉及可编程交换机和边缘节点,边缘节点具备一定的存储和计算能力,存储了数据且可基于数据进行模型训练。可编程交换机可根据需求灵活制定网络功能,本专利一方面在可编程交换机数据平面开发参数聚合计算功能,为解决联邦学习训练过程中梯度向量或模型参数的聚合问题。另一方面,支持定制化协议的解析和转发,即可根据在传统网络协议基础上改进的协议进行解析从而获取携带内容,并按自定义规则进行转发。
71.本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。
72.本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
73.因此,本技术还提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本技术中任一实施例所述的方法。
74.本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产
生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
75.这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
76.这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
77.因此,本技术还提出一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如本技术任一实施例所述的方法。
78.如图6所示,本实施例提供了一种电子设备600,其包括:一个或多个处理器620;存储装置610,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器620运行,使得所述一个或多个处理器620实现本技术实施例所提供的节能的在网联邦学习方法中的以下至少一个步骤:
79.步骤201、选定参与联邦学习的多个边缘节点;以选定的多个边缘节点到共同可达的可编程交换机的跳数之和最少为准则,选择用于参与聚合的可编程交换机。
80.步骤204、识别所述第一标识,对各个边缘节点迭代次数相同的梯度向量或模型参数进行聚合计算后,再发送到所述多个边缘节点;
81.进一步地,还可用于实现以下至少一个步骤:
82.步骤202、构建联邦学习模型,将构建的初始模型下发到边缘节点。
83.步骤207、识别所述第二标识,响应于通信协议中包含的设定字符,优先转发用于聚合的梯度向量或模型参数。
84.图6显示的电子设备600仅仅是一个示例,不应对本技术实施例的功能和使用范围带来任何限制。如图6所示,该电子设备600包括处理器620、存储装置610、输入装置630和输出装置640;电子设备中处理器620的数量可以是一个或多个,图6中以一个处理器620为例;电子设备中的处理器620、存储装置610、输入装置630和输出装置640可以通过总线或其他方式连接,图6中以通过总线650连接为例。
85.可以理解的,本实施例的电子设备,当与任一交换机结合时,构成本技术实施例的可编程交换机。因此,本技术还提出一种可编程交换机。所述输入装置,从交换机输入数据中识别所述第一标识,第二标识、梯度向量或模型参数等;所述输出装置,输出聚合后的梯度向量和/或模型参数至交换机输出数据。
86.可理解的,本实施例的电子设备,当与任一边缘节点结合时,至少用于实现步骤201。进一步地,用于实现步骤202~203、205,具体内容不再赘述。所述输出设备,用于产生对选定的可编程计算机发送的梯度向量或模型参数,进一步地,还用于产生发送的第一标识和或第二标识。所述输入装置从来自交换机的数据中取得聚合后的梯度向量和/或模型参数;所述输出装置,产生第一标识、第二标识、迭代训练后的梯度向量和/或模型参数。
87.在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
88.还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
89.以上所述仅为本技术的实施例而已,并不用于限制本技术。对于本领域技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本技术的权利要求范围之内。

技术特征:
1.一种节能的在网联邦学习网络,包括服务器、多个边缘节点以及连接所述服务器和所述多个边缘节点的交换机网络,其特征在于,所述服务器,用于构建联邦学习的初始模型、下发到所述边缘节点;所述交换机网络中的至少一个为可编程交换机,所述可编程交换机用于模型训练过程中梯度向量或模型参数在网聚合;所述边缘节点,用于进行模型训练,接收聚合后的参数,再将更新的参数传输到所述可编程交换机。2.如权利要求1所述节能的在网联邦学习网络,其特征在于,所述可编程交换机包含可编程的数据处理器,用于实现模型训练过程中梯度向量或模型参数在网聚合。3.如权利要求1所述的节能的在网联邦学习网络,其特征在于,在所述边缘节点和所述可编程交换机之间的传输层协议中,包含第一标识信息和负载;所述第一标识信息用于表示迭代次数;所述负载包含梯度向量或模型参数。4.如权利要求1所述的节能的在网联邦学习网络,其特征在于,所述交换机网络中包含多个可编程交换机;以多个边缘节点和共同可达的至少一个可编程交换机构成在网联邦学习的网络,其中选择的可编程交换机使各节点到选择的可编程交换机之间的跳数总和最少。5.如权利要求1所述的节能的在网联邦学习网络,其特征在于,所述交换机网络的通信协议中包含第二标识;所述第二标识,用于表示优先转发用于聚合的梯度向量或模型参数。6.如权利要求3所述的节能的在网联邦学习网络,其特征在于,所述负载中还包含表示数据量的信息。7.一种在网联邦学习网络节能方法,用于所述权利要求1~6任意一项所述网络,其特征在于,包含以下步骤:选定参与联邦学习的多个边缘节点;以选定的多个边缘节点到共同可达的可编程交换机的跳数之和最少为准则,选择用于参与聚合的可编程交换机;将联邦学习的初始模型部署到所述选定的多个边缘节点,这些边缘节点利用本地数据进行模型参数更新;在边缘节点迭代n次后,将更新的梯度向量或模型参数发送到可编程交换机;可编程交换机对各个边缘节点迭代次数相同的梯度向量或模型参数进行聚合计算后,再发送到所述多个边缘节点;重复进行迭代计算和聚合计算,直到训练结束。8.如权利要求7所述的在网联邦学习网络节能方法,其特征在于,在所述选定的多个边缘节点和用于聚合计算的可编程交换机之间的任一交换机,响应于通信协议中包含的设定字符,优先转发用于聚合的梯度向量或模型参数。9.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上的计算机程序,并可在处理器运行所述计算机程序时实现权利要求7所述方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求7所述的方法。

技术总结
本申请公开了一种节能的在网联邦学习网络,包括服务器、多个边缘节点以及连接所述服务器和所述多个边缘节点的交换机网络。所述服务器,用于构建联邦学习的初始模型、下发到所述边缘节点。所述交换机网络中的至少一个为可编程交换机,所述可编程交换机用于模型训练过程中梯度向量或模型参数在网聚合。所述边缘节点,用于进行模型训练,接收聚合后的参数,再将更新的参数传输到所述可编程交换机。本申请还包含在网联邦学习网络的节能方法。本申请方案减少了参数传输距离,进而减小传输时延,解决现有技术网络开销较大的问题。现有技术网络开销较大的问题。现有技术网络开销较大的问题。


技术研发人员:朱艳宏 党梅梅 程强 李少晖 刘姿杉
受保护的技术使用者:中国信息通信研究院
技术研发日:2022.07.12
技术公布日:2022/11/1
转载请注明原文地址: https://tieba.8miu.com/read-6332.html

最新回复(0)