行业标准网
(19)中华 人民共和国 国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202111613130.9 (22)申请日 2021.12.27 (71)申请人 北京百度网讯科技有限公司 地址 100085 北京市海淀区上地十街10号 百度大厦2层 (72)发明人 刘吉 马北辰 周晨娣 周景博  周瑞璞 窦德景  (74)专利代理 机构 北京英赛 嘉华知识产权代理 有限责任公司 1 1204 代理人 王达佐 马晓亚 (51)Int.Cl. G06N 20/00(2019.01) G06N 3/08(2006.01) G06F 9/48(2006.01) (54)发明名称 联邦学习方法和装置、 系统、 电子 设备、 计算 机可读介质 (57)摘要 本公开提供了一种联邦学习方法和装置, 涉 及大数据、 深度学习等技术领域。 具体实现方案 为: 针对同一时间训练的多个不同任务中的各任 务, 产生该任务的全局模型; 接收当前可用终端 集合中各个可用终端的资源信息; 基于资源信 息、 全局模型, 从当前可用终端集合中选择该任 务对应的目标 终端; 通过目标 终端对全局模型进 行训练, 直至该任务训练后的全局模 型满足预设 条件为止 。 该实施方式提高了联邦学习的效率。 权利要求书3页 说明书12页 附图5页 CN 114298322 A 2022.04.08 CN 114298322 A 1.一种联邦学习方法, 所述方法包括: 针对同一时间训练的多个不同任务中的各任务, 产生该任务的全局模型; 接收当前 可用终端集 合中各个可用终端的资源信息; 基于所述资源信息、 所述全局模型, 从当前可用终端集合中选择该任务对应的目标终 端; 通过所述目标终端对所述全局模型进行训练, 直至该任务训练后的全局模型满足预设 条件为止 。 2.根据权利要求1所述的方法, 其中, 所述通过所述目标终端对所述全局模型进行训 练, 直至该任务训练后的全局模型满足预设条件为止, 包括: 将所述全局模型下发至所述目标终端, 以使所述目标终端对所述全局模型进行本地训 练, 得到模型参数; 接收所述目标终端返回的模型参数, 对所述模型参数进行聚合, 得到更新后的全局模 型; 响应于更新后的全局模型满足预设条件, 确定该任务训练后的全局模型满足预设条 件。 3.根据权利要求2所述的方法, 所述方法还 包括: 响应于更新后的全局模型不满足预设条件, 采用更新后的全局模型替换所述全局模 型, 继续接收当前可用终端集合中各个可用终端的资源信息, 基于所述资源信息、 所述全局 模型, 从当前可用终端集合中选择该任务对应的目标终端; 将所述全局模型下发至所述 目 标终端, 接收所述目标终端返回的模型参数, 对所述模型参数进 行聚合, 得到更新后的全局 模型, 直至更新后的全局模型满足预设条件为止 。 4.根据权利要求1所述的方法, 其中, 所述基于所述资源信 息、 所述全局模型, 从当前可 用终端集 合中选择 该任务对应的目标终端, 包括: 将当前可用终端集合、 当前可用终端集合的资源信息、 所述全局模型的参数输入预先 训练完成的深度学习模型, 得到所述深度学习模型输出的、 该任务对应的目标终端信息, 所 述目标终端信息用于表征当前可用终端集合中各个可用终端可被调用的概率; 其中, 所述 深度学习模型用于表征全局模型 的参数、 可用终端集合、 可用终端集合中各个可用终端的 资源信息三 者与目标终端信息之间对应关系; 基于所述目标终端信息, 从当前 可用终端集 合中选择 该任务对应的目标终端。 5.根据权利要求 4所述的方法, 所述深度学习模型采用如下训练步骤训练得到: 获取多个任务对应的样本终端以及各个样本终端的资源信息; 将多个任务中各个任务在各轮迭代训练时对应的样本终端、 各个样本终端的资源信 息、 全局模型 的参数输入预先构建的深度学习网络, 得到所述深度学习网络输出 的目标终 端信息; 响应于所述深度学习网络的损失函数的损失值达到预设的损失值, 得到深度学习模 型。 6.根据权利要求5所述的方法, 其中, 所述深度学习 网络的损 失函数包括: 时间损 失函 数和数据公平性损失函数; 所述时间损失函数用于表征该任务对应的全局模型每轮迭代训练时调用的终端的执权 利 要 求 书 1/3 页 2 CN 114298322 A 2行时间长短的损失; 所述数据公平性损失函数用于表征该任务对应的全局模型每轮迭代训练时调用的终 端的频率的方差的损失。 7.一种联邦学习装置, 所述装置包括: 产生单元, 被配置成针对 同一时间训练的多个不同任务中的各任务, 产生该任务的全 局模型; 接收单元, 被配置成接收当前 可用终端集 合中各个可用终端的资源信息; 选择单元, 被配置成基于所述资源信 息、 所述全局模型, 从当前可用终端集合中选择该 任务对应的目标终端; 训练单元, 被配置成通过所述目标终端对所述全局模型进行训练, 直至该任务训练后 的全局模型满足预设条件为止 。 8.根据权利要求7 所述的装置, 其中, 所述训练单 元包括: 下发模块, 被配置成将所述全局模型下发至所述目标终端, 以使所述目标终端对所述 全局模型进行本地训练, 得到模型参数; 接收模块, 被配置成接收所述目标终端返回的模型参数, 对所述模型参数进行聚合, 得 到更新后的全局模型; 确定模块, 被配置成响应于更新后的全局模型满足预设条件, 确定该任务训练后的全 局模型满足预设条件。 9.根据权利要求8所述的装置, 所述训练单 元还包括: 替换模块, 被配置成响应于更新后的全局模型不满足预设条件, 采用更新后的全局模 型替换所述全局模型, 继续触发接收单元、 选择单元、 下发模块、 接收模块、 确定模块的工 作。 10.根据权利要求7 所述的装置, 其中, 所述选择 单元包括: 输入模块, 被配置成将当前可用终端集合、 当前可用终端集合的资源信息、 所述全局模 型的参数输入预先训练完成的深度学习模型, 得到所述深度学习模型输出 的、 该任务对应 的目标终端信息, 所述目标终端信息用于表征当前可用终端集合中各个可用终端 可被调用 的概率; 其中, 所述深度学习模型用于表征全局模型的参数、 可用终端集合、 可用终端集合 中各个可用终端的资源信息三 者与目标终端信息之间对应关系; 选择模块, 被配置成基于所述目标终端信息, 从当前可用终端集合中选择该任务对应 的目标终端。 11.根据权利要求10所述的装置, 所述深度学习模块采用如下 单元训练得到: 获取单元, 被配置成获取多个任务对应的样本终端以及各个样本终端的资源信息; 输出单元, 被配置成将多个任务中各个任务在各轮迭代训练时对应的样本终端、 各个 样本终端的资源信息输入预先构建的深度学习网络, 得到所述深度学习网络输出的目标终 端信息; 得到单元, 被配置成响应于所述深度学习网络的损失函数的损失值达到预设的损失 值, 得到深度学习模型。 12.根据权利要求11所述的装置, 其中, 所述深度 学习网络的损失函数包括 时间损失函 数和数据公平性损失函数;权 利 要 求 书 2/3 页 3 CN 114298322 A 3

.PDF文档 专利 联邦学习方法和装置、系统、电子设备、计算机可读介质

文档预览
中文文档 21 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共21页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 联邦学习方法和装置、系统、电子设备、计算机可读介质 第 1 页 专利 联邦学习方法和装置、系统、电子设备、计算机可读介质 第 2 页 专利 联邦学习方法和装置、系统、电子设备、计算机可读介质 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 23:18:11上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。