行业标准网
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210386028.8 (22)申请日 2022.04.13 (71)申请人 西安广和通无线通信有限公司 地址 710076 陕西省西安市高新区软件新 城天谷八 路156号云汇谷 C3楼1501室 (72)发明人 赵昆  (74)专利代理 机构 深圳智汇远见知识产权代理 有限公司 4 4481 专利代理师 黄巍 (51)Int.Cl. G06F 9/50(2006.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 数据协作处理方法、 系统、 装置、 设备及 存储 介质 (57)摘要 本申请涉及一种数据协作处理方法、 系统、 装置、 设备及存储介质; 其中, 所述方法包括: 获 取待处理的数据以及获取待拆分的目标深度神 经网络模型; 获取所述终端设备的当前内存运行 情况; 根据所述当前内存运行情况, 将所述深度 神经网络模型划分为第一部分网络层和第二部 分网络层, 得到分区结果; 其中, 所述第一部分网 络层在所述终端设备上运行; 所述第二部分网络 层在边缘计算设备上运行; 将所述分区结果发送 到所述边缘计算设备中, 以使得所述边缘计算设 备和所述终端设备根据所述分区结果协作完成 对所述数据的处理。 本申请用以解决现有技术 中, 终端设备硬件和计算能力的限制导致性能差 的技术问题。 权利要求书3页 说明书12页 附图6页 CN 114860426 A 2022.08.05 CN 114860426 A 1.一种数据协作处 理方法, 其特 征在于, 适用于终端设备, 所述方法包括: 获取待处 理的数据以及获取待拆分的目标深度神经网络模型; 获取所述终端设备的当前内存运行情况; 根据所述当前内存运行情况, 将所述深度神经网络模型划分为第 一部分网络层和第 二 部分网络层, 得到分区结果; 其中, 所述第一部分网络层在所述终端设备上运行; 所述第二 部分网络层 在边缘计算设备 上运行; 将所述分区结果发送到所述边缘计算设备中, 以使得所述边缘计算设备和所述终端设 备根据所述分区结果协作完成对所述数据的处 理。 2.根据权利要求1所述的数据协作处理方法, 其特征在于, 所述根据所述当前内存运行 情况, 将所述深度神经网络模型划分为第一部分网络层和第二部分网络层, 包括: 获取所述目标深度神经网络模型的各网络层, 在所述终端设备的所述当前内存运行情 况下, 各自的第一预测延迟时间, 以及各网络层在所述边缘计算设备中各自的第二预测延 迟时间; 根据各所述第 一预测延迟时间和各所述第 二预测延迟时间, 以所述深度神经网络模型 整体的预测延迟时间最短为目标, 确定在所述终端设备上运行的所述深度神经网络模型的 第一部分网络层, 以及 在所述边缘计算设备 上运行的第二部分网络层。 3.根据权利要求2所述的数据协作处理方法, 其特征在于, 所述获取所述目标深度神经 网络模型 的各网络层, 在所述终端设备 的所述当前内存运行情况下, 各自的第一预测延迟 时间, 以及各网络层 在所述边缘计算设备中各自的第二预测延迟时间, 包括: 获取所述目标深度神经网络模型的各网络层各自对应的第一延迟时间预测模型和第 二延迟时间预测模型; 其中, 所述第一延迟时间预测模型为所述网络层在所述终端设备中 运行时的延迟时间预测模型; 所述第二延迟时间预测模型为所述网络层在所述边缘计算设 备中运行时的延迟时间预测模型; 利用所述第一延迟时间预测模型, 预测在所述当前内存运行情况下, 所述目标深度神 经网络模型的各网络层 在所述终端设备中各自的第一预测延迟时间; 利用所述第 二延迟时间预测模型, 预测所述目标深度神经网络模型的各网络层在所述 边缘计算设备中各自的第二预测延迟时间。 4.根据权利要求3所述的数据协作处理方法, 其特征在于, 所述获取所述目标深度神经 网络模型的各网络层各自对应的第一延迟时间预测模型和第二延迟时间预测模型, 包括: 获取所述目标深度神经网络模型的目标模型 特征信息; 获取预先存储的对应关系信息; 其中, 所述对应关系信 息中包括: 各模型特征信 息各自 对应的各网络层的第一延迟时间预测模型和第二延迟时间预测模型; 从所述对应关系信 息中, 确定所述目标模型特征信 息对应的各网络层的第 一延迟时间 预测模型和第二延迟时间预测模型。 5.根据权利要求4所述的数据协作处理方法, 其特征在于, 所述获取预先存储的对应关 系信息, 包括: 对于任意一种深度神经网络模型的每一个网络层, 进行如下处理: 获取多个训练数据; 获取在所述 终端设备的不同内存运行情况下, 所述网络层 对各所述训练数据进行计算的第 一延时;权 利 要 求 书 1/3 页 2 CN 114860426 A 2根据各所述第 一延时以及与 所述终端设备的各所述内存运行情况, 拟合得到所述第 一 延迟时间预测模型; 获取所述边缘计算设备发送的各网络层的第二延迟时间预测模型; 其中, 所述第二延 迟时间预测模型为所述边缘计算设备根据所述网络层在所述边缘计算设备中, 对各所述训 练数据进行计算得到的第二延时拟合得到; 对应存储各所述深度神经网络模型的模型特征信息各自对应的第一延迟时间预测模 型和第二延迟时间预测模型, 得到所述对应关系信息 。 6.根据权利要求1~5任意一项所述的数据协作处理方法, 其特征在于, 所述将所述分 区结果发送到所述 边缘计算设备之前, 还 包括: 获取所述终端设备与所述 边缘计算设备之间的网络监测数据; 根据所述网络监测数据, 判定所述终端设备与所述 边缘计算设备处于连接状态。 7.一种数据协作处 理方法, 其特 征在于, 适用于边 缘计算设备, 所述方法包括: 获取至少一个终端设备各自发送的分区结果; 其中, 每个所述终端设备根据所述当前 内存运行情况, 将所述深度神经网络模型划分为第一部分网络层和第二部分网络层, 得到 分区结果; 其中, 所述第一部分 网络层在所述 终端设备上运行; 所述第二部 分网络层在所述 边缘计算设备 上运行; 与各所述分区结果各自对应的所述 述终端设备协作完成对待处 理数据的处 理。 8.根据权利要求7所述的数据协作处理方法, 其特征在于, 所述与各所述分区结果各自 对应的所述 述终端设备协作完成对待处 理数据的处 理, 包括: 获取所述至少一个终端设备 各自的优先级; 按照优先级从高到低的顺序, 依次与所述终端设备协作完成对待处 理数据的处 理。 9.一种数据协作处 理系统, 其特 征在于, 包括: 边 缘计算设备和至少一个终端设备; 每个所述终端设备, 用于获取待处理的数据以及获取待拆分的目标深度神经网络模 型; 获取所述 终端设备的当前内存运行情况; 根据所述当前内存运行情况, 将所述深度神经 网络模型划分为第一部 分网络层和第二部 分网络层, 得到 分区结果; 其中, 所述第一部 分网 络层在所述终端设备上运行; 所述第二部分网络层在所述边缘计算设备上运行; 将所述分 区结果发送到所述 边缘计算设备中; 所述边缘计算设备, 用于获取至少一个终端设备各自发送的分区结果; 与各所述分区 结果各自对应的所述 述终端设备协作完成对待处 理数据的处 理。 10.一种数据协作处 理装置, 其特 征在于, 适用于终端设备, 所述装置包括: 第一获取模块, 用于获取待处 理的数据以及获取待拆分的目标深度神经网络模型; 第二获取模块, 用于获取 所述终端设备的当前内存运行情况; 划分模块, 用于根据所述当前内存运行情况, 将所述深度神经网络模型划分为第一部 分网络层和第二部分 网络层, 得到 分区结果; 其中, 所述第一部 分网络层在所述终端设备上 运行; 所述第二部分网络层 在边缘计算设备 上运行; 第一执行模块, 用于将所述分区结果发送到所述边缘计算设备中, 以使得所述边缘计 算设备和所述终端设备根据所述分区结果协作完成对所述数据的处 理。 11.一种数据协作处 理装置, 其特 征在于, 适用于边 缘计算设备, 所述装置包括: 第三获取模块, 用于获取至少一个终端设备各自发送的分区结果; 其中, 每个所述终端权 利 要 求 书 2/3 页 3 CN 114860426 A 3

.PDF文档 专利 数据协作处理方法、系统、装置、设备及存储介质

文档预览
中文文档 22 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共22页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 数据协作处理方法、系统、装置、设备及存储介质 第 1 页 专利 数据协作处理方法、系统、装置、设备及存储介质 第 2 页 专利 数据协作处理方法、系统、装置、设备及存储介质 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 07:16:40上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。