(19)国家知识产权局
(12)发明 专利
(10)授权公告 号
(45)授权公告日
(21)申请 号 202210120544.6
(22)申请日 2022.02.09
(65)同一申请的已公布的文献号
申请公布号 CN 114758364 A
(43)申请公布日 2022.07.15
(73)专利权人 四川大学
地址 610065 四川省成 都市一环路南 一段
24号
(72)发明人 王天择 孙奕髦 董兵 赖伟
黄文炜
(74)专利代理 机构 北京卓恒知识产权代理事务
所(特殊普通 合伙) 11394
专利代理师 孔鹏
(51)Int.Cl.
G06V 40/12(2022.01)
G06V 10/80(2022.01)
G06V 10/82(2022.01)
G06K 9/62(2022.01)
G06N 3/04(2006.01)
G06N 3/08(2006.01)
G16Y 10/25(2020.01)G16Y 40/60(2020.01)
H04W 64/00(2009.01)
(56)对比文件
CN 107832834 A,2018.0 3.23
CN 112312541 A,2021.02.02
CN 110234085 A,2019.09.13
CN 110300370 A,2019.10.01
CN 112085738 A,2020.12.15
US 2021112371 A1,2021.04.15
US 2020402 223 A1,2020.12.24
郭昕刚 等.基 于k-means及改进k近邻的
WiFi指纹定位 算法. 《长 春工业大学学报》 .2018,
第39卷(第1期),全 文.
章燕芳.多传感器位置指纹信息的采集与处
理技术. 《中国优秀硕士学位 论文全文数据库
(信息科技 辑)》 .2021,(第2期),全 文.
Kevin M. Chen 等.Semi-Supervised
Learning with GANs for Device-Fre e
Fingerprinting Indoor Localization.
《GLOBECOM 2020 - 2020 IE EE Global
Communications Conference》 .2021,全 文.
审查员 康环环
(54)发明名称
基于深度学习的工业物联网场景融合定位
方法及系统
(57)摘要
本发明公开了一种基于深度学习的工业物
联网场景融合定位方法及系统, 当需要获得待测
位置的位置信息, 位置指纹识别网络通过卷积神
经网络提取待测目标接受到的指纹信息的特征,
然后通过画像提取层提取出指纹信息特征的特
征画像, 由预测层基于特征画 像预测出指纹信息
的指纹特征, 由全连接层将该指纹特征与预先设
定好位置指纹库中的标准指纹信息进行匹配, 并
将匹配成功的标准指纹信息对应的位置信息输
出, 作为待测目标的位置信息。 实现了在线定位,消除了位置标签 之间匹配的依赖性, 提高了定位
鲁棒性和精度。 该位置指纹识别网络具有良好的
迁移性, 能够适用于不同的环境, 提高了对定位
的环境适应性。
权利要求书2页 说明书14页 附图2页
CN 114758364 B
2022.09.23
CN 114758364 B
1.一种基于深度学习的工业物联网场景融合定位方法, 其特 征在于, 所述方法包括:
获得待测目标接收到的指纹信 息, 所述指纹信 息用于表征所述待测目标所在的位置特
征;
将所述指纹信 息输入预先训练好的位置指纹识别网络 中, 所述位置指纹识别网络输出
所述待测目标的位置信息;
其中, 位置指纹识别网络由卷积神经网络、 画像提取层、 预测层、 全连接层和对抗网络
构成, 所述卷积神经网络的输入是所述指纹信息, 所述画像提取层的输入是卷积神经网络
的输出; 所述预测层的输入是所述画像提取层的输出, 所述对抗网络的输入是所述卷积神
经网络的输出和所述预测层的输出; 所述预测层输出所述待测目标的位置信息, 所述对抗
网络用于消除环境特征对预测层的输出的指纹特征的影响; 所述全连接层的输入是所述预
测层的输出, 所述预测层的输出 是所述待测目标的位置信息 。
2.根据权利要求1所述的基于深度学习的工业物联网场景融合定位方法, 其特征在于,
所述位置指纹识别网络的训练方法包括:
确定多个预定位置的多个指纹数据, 将每个预定位置的多个指纹数据的20%设置在验
证集中, 将 每个预定位置的多个指纹数据的8 0%设置在训练集中; 所述验证集中的指纹数据
被预先标注了所述指纹数据表征的预定位置;
将训练集和验证集输入卷积神经网络 中, 通过卷积神经网络分别提取出训练集中的训
练特征和验证集中的验证特 征;
通过画像提取层提取训练特征的第 一特征画像, 通过画像提取层提取验证特征的第 二
特征画像;
通过预测层, 将第一特征画像映射到潜在空间中, 得到第 一潜在特征, 将第 二特征画像
映射到潜在空间中, 得到第二潜在特征; 基于第一潜在特征得到第一预测向量; 基于第二潜
在特征得到第二预测向量; 基于第一预测向量获得未标注数据的第一损失函数, 基于第二
预测向量获得 标注数据的第二损失函数;
通过对抗网络, 将训练特征、 第一预测向量、 将验证特征、 第二预测向量进行融合操作,
得到融合数据; 将融合数据分别映射到第二空间, 得到映射特征; 基于映射特征得到第三
损失函数;
基于第一损失函数、 第二损失函数和第三损失函数, 得到模型损失函数;
当模型损失函数收敛或者模型训练次数大于设定值, 确定位置指纹识别网络训练结
束, 并确定预测层输出的第一预测向量 为所述待测目标的位置信息 。
3.根据权利要求2所述的基于深度学习的工业物联网场景融合定位方法, 其特征在于,
所述将训练特征、 第一预测向量、 将验证特征、 第二预测向量进 行融合操作, 得到融合数据,
包括:
基于所述训练特 征、 所述第一预测向量、 第二预测向量获得第一融合向量;
基于所述验证特 征、 所述第一预测向量、 第二预测向量获得第二融合向量;
对所述第一融合向量和所述第二融合向量进行加权求和, 得到融合数据。
4.一种基于深度学习的工业物联网场景融合定位系统, 其特 征在于, 所述系统包括:
获取模块, 用于获得待测目标接收到的指纹信息, 所述指纹信息用于表征所述待测目
标所在的位置特 征;权 利 要 求 书 1/2 页
2
CN 114758364 B
2定位模块, 用于将所述指纹信息输入预先训练好的位置指纹识别网络中, 所述位置指
纹识别网络 输出所述待测目标的位置信息;
其中, 位置指纹识别网络由卷积神经网络、 画像提取层、 预测层、 全连接层和对抗网络
构成, 所述卷积神经网络的输入是所述指纹信息, 所述画像提取层的输入是卷积神经网络
的输出; 所述预测层的输入是所述画像提取层的输出, 所述对抗网络的输入是所述卷积神
经网络的输出和所述预测层的输出; 所述预测层输出所述待测目标的位置信息, 所述对抗
网络用于消除环境特征对预测层的输出的指纹特征的影响; 所述全连接层的输入是所述预
测层的输出, 所述预测层的输出 是所述待测目标的位置信息 。
5.根据权利要求4所述的基于深度学习的工业物联网场景融合定位系统, 其特征在于,
所述位置指纹识别网络的训练方法包括:
确定多个预定位置的多个指纹数据, 将每个预定位置的多个指纹数据的20%设置在验
证集中, 将 每个预定位置的多个指纹数据的8 0%设置在训练集中; 所述验证集中的指纹数据
被预先标注了所述指纹数据表征的预定位置;
将训练集和验证集输入卷积神经网络 中, 通过卷积神经网络分别提取出训练集中的训
练特征和验证集中的验证特 征;
通过画像提取层提取训练特征的第 一特征画像, 通过画像提取层提取验证特征的第 二
特征画像;
通过预测层, 将第一特征画像映射到潜在空间中, 得到第 一潜在特征, 将第 二特征画像
映射到潜在空间中, 得到第二潜在特征; 基于第一潜在特征得到第一预测向量; 基于第二潜
在特征得到第二预测向量; 基于第一预测向量获得未标注数据的第一损失函数, 基于第二
预测向量获得 标注数据的第二损失函数;
通过对抗网络, 将训练特征、 第一预测向量、 将验证特征、 第二预测向量进行融合操作,
得到融合数据; 将融合数据分别映射到第二空间, 得到映射特征; 基于映射特征得到第三
损失函数;
基于第一损失函数、 第二损失函数和第三损失函数, 得到模型损失函数;
当模型损失函数收敛或者模型训练次数大于设定值, 确定位置指纹识别网络训练结
束, 并确定预测层输出的第一预测向量 为所述待测目标的位置信息 。
6.根据权利要求5所述的基于深度学习的工业物联网场景融合定位系统, 其特征在于,
所述将训练特征、 第一预测向量、 将验证特征、 第二预测向量进 行融合操作, 得到融合数据,
包括:
基于所述训练特 征、 所述第一预测向量、 第二预测向量获得第一融合向量;
基于所述验证特 征、 所述第一预测向量、 第二预测向量获得第二融合向量;
对所述第一融合向量和所述第二融合向量进行加权求和, 得到融合数据。权 利 要 求 书 2/2 页
3
CN 114758364 B
3
专利 基于深度学习的工业物联网场景融合定位方法及系统
文档预览
中文文档
19 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
温馨提示:本文档共19页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 人生无常 于 2024-03-18 01:21:52上传分享