行业标准网
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210337181.1 (22)申请日 2022.03.31 (71)申请人 慧之安信息技 术股份有限公司 地址 100000 北京市海淀区昆明湖南路51 号A座二层217号 (72)发明人 兰雨晴 黄永琢 余丹 王丹星  唐霆岳  (74)专利代理 机构 北京广技专利代理事务所 (特殊普通 合伙) 11842 专利代理师 张国香 (51)Int.Cl. G06V 40/10(2022.01) G06V 40/16(2022.01) G06V 20/40(2022.01) G06V 20/52(2022.01)H04N 7/18(2006.01) (54)发明名称 基于深度学习的视图库布控报警方法 (57)摘要 本发明提供了基于深度学习的视图库布控 报警方法, 其根据来自安装于不同城市区域的安 防摄像头采集的视频以及目标人员的身体外表 特征信息或身体动态特征信息, 识别得到目标人 员在不同城市区域的存在状态, 继而得到目标人 员的行踪轨迹; 根据行踪轨迹, 预测得到目标人 员在未来预定时间段内的出现轨迹, 以此确定目 标人员在未来预定时间段内出现的地点位置; 最 后指示地点位置安装的安防摄像头进行定点拍 摄, 根据定点拍摄的结果, 向安防平台中心反馈 相应的通知消息, 其以目标人员的历史行踪轨迹 为基准, 预测目标人员可能出现的地点位置, 对 同时对海量监测视频进行识别排查, 优先确定目 标人员最可能出现的地点, 提高对目标人员进行 追踪的效率和准确性。 权利要求书3页 说明书8页 附图1页 CN 114821635 A 2022.07.29 CN 114821635 A 1.基于深度学习的视图库布控报警方法, 其特 征在于, 其包括如下步骤: 步骤S1, 收集安装于不同城市区域的安防摄像头采集的视频; 根据目标人员在不同城 市区域的历史出现情况, 将所有视频转换成视频队列, 以及将所述视频队列保存到区块链 中; 步骤S2, 根据目标人员的身体外表特征信息或身体动态特征信息, 从所述视频队列中 识别得到目标人员 在不同城市区域的存在状态; 根据所述存在状态, 得到目标人员的行踪 轨迹; 步骤S3, 根据所述行踪轨迹, 预测得到目标人员在未来预定时间段内的出现轨迹; 根据 所述出现轨 迹, 确定目标 人员在未来预定时间段内出现的地 点位置; 步骤S4, 指示所述地点位置安装的安防摄像头进行定点拍摄, 根据定点拍摄的结果, 向 安防平台 中心反馈相应的通知消息 。 2.如权利要求1所述的基于深度 学习的视图库布控报 警方法, 其特征在于: 在所述步骤 S1中, 收集 安装于不同城市区域的安防摄 像头采集的视频 具体包括: 收集安装于不同城市区域的安防摄像头采集的视频, 并获取所述视频的实际影像亮度 值; 将所述实际影像亮度值与 预设影像亮度阈值进行比对, 若所述实际影像亮度值小于或 等于预设影像亮度阈值, 则丢弃所述视频; 若所述实际影像亮度值大于预设影像亮度阈值, 则保留所述视频。 3.如权利要求2所述的基于深度 学习的视图库布控报 警方法, 其特征在于: 在所述步骤 S2中, 根据目标人员在不同城市区域的历史出现情况, 将所有视频转换成视频队列, 以及将 所述视频队列保存到区块链中具体包括: 按照目标人员在不同城市区域的历史出现概率值由高到低的顺序, 依次将所有保留的 视频排列转换成视频队列, 以及将所述视频队列中的每个视频依次保存到区块链的不同区 间中。 4.如权利要求3所述的基于深度 学习的视图库布控报 警方法, 其特征在于: 在所述步骤 S2中, 将所述视频队列中的每 个视频依次保存到区块链的不同区间中具体包括: 若依次保存每个视频时出现无法将一个完整视频全部保存至区块链的单个区间中时, 需要对所述单个完整视频进行分割并将分割后的两个子视频数据添加衔接因子数据然后 再分别保存在区块链的不同区间中, 其具体过程 为: 步骤S201, 利用下面公式(1), 根据每个视频的数据量判断是否需要进行分割视频的后 续操作, 在上述公式(1)中, W表示 分割视频控制值; S0表示区块链的单个区间可存储的最大数据 量; H(Fa)表示第a个视 频的数据量; n表示所述视 频队列中的视 频个数; Z[]表示非负检验 函 数, 若括号内的数值 为非负数则函数值 为1, 若括 号内的数值 为负数则函数值 为0; 若W=1, 表示存在视频需要 进行分割储 存, 则找到要分割的视频继续进行后续 步骤; 若W=0, 表示存在视频不需要进行分割储存, 则不继续进行后续步骤, 直接按照视频顺权 利 要 求 书 1/3 页 2 CN 114821635 A 2序储存到区块链的区间中; 步骤S202, 若需要进行分割视频, 则在分割视频后利用下面公式(2)在被分割的两个子 视频的分割位置添加衔接因子数据, 在上述公式(2)中, l(i, j)表示被分割的两个子视频的分割位置添加的衔接因子数据 中第i行第j列的数值(所述衔接因子数据的数据形式为矩阵形式); k, k+1表示被分割的视 频的分割位置为视频的第k帧和第k+1帧中间; Gk(i, j)表示被分割的视频的第k帧图像中第 i行第j列像素点的像素值; Gk+1(i, j)表示被分割的视频的第k+1帧图像中第i行第j列像素 点的像素值; 将所述衔接因子数据 添加在分割后的第 一个视频数据的尾部, 以及 分割后的第 二个视 频数据的头 部, 进而形成视频的一个帧数; 步骤S203, 若需要从区块链中依次提取出每个视频时, 则需要利用下面公式(3), 根据 相邻顺序的视频 数据的前后两帧的图像数据判断是否需要 进行视频合成, 在上述公式(3)中, E表示提取视频过程中相邻顺序的视频数据进行视频合成的控制 值; m表示所述相邻顺序的视频数据的前一个视频数据的总帧数; P1_m(i, j)表示所述相邻顺 序的视频数据的前一个视频数据的第m帧图像矩阵数据中第i行第j列的数值; P2_1(i, j)表 示所述相邻顺序 的视频数据的后一个视频数据 的第1帧图像矩阵数据中第i行第j列的数 值; | |表示求取绝对值; P1_(m‑1)(i, j)表示所述相邻顺序的视频数据的前一个视频数据的 第m‑1帧图像矩阵数据中第i行第j列的数值; P2_2(i, j)表示所述相邻顺序的视频数据的后 一个视频数据的第2帧图像矩阵数据中第i行第 j列的数值; I表 示视频的一帧图像矩阵数据 中每一列的数值个数; J表示视频的一帧图像矩阵数据中每一行的数值个数; 若E=0, 表示当前提取视频过程中的两个相邻顺序的视频数据是被分割的数据, 需要 进行视频合成; 若E≠0, 表示当前提取视频过程中的两个相邻顺序的视频数据不是被分割的数据, 不 需要进行视频合成。 5.如权利要求3所述的基于深度 学习的视图库布控报 警方法, 其特征在于: 在所述步骤 S2中, 还包括: 对目标人员的脸部 图像进行识别分析, 得到目标人员的脸部五官轮廓特征信息, 以此 作为所述身体外表特 征信息; 对目标人员的背部 图像进行识别分析, 得到目标人员的背部轮廓特征信息, 以此作为 所述身体外表特 征信息; 对目标人员的行走动态图像进行识别分析, 得到目标人员的行走四肢姿态特征信息, 以此作为所述身体动态特 征信息。 6.如权利要求5所述的基于深度 学习的视图库布控报 警方法, 其特征在于: 在所述步骤 S2中, 根据目标人员的身体外表特征信息或身体动态特征信息, 从所述视频队列中识别得 到目标人员在不同城市区域的存在状态具体包括: 根据所述脸部五官轮廓特征信 息、 所述背部轮廓特征信 息和所述行走四肢姿态特征信权 利 要 求 书 2/3 页 3 CN 114821635 A 3

.PDF文档 专利 基于深度学习的视图库布控报警方法

文档预览
中文文档 13 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共13页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于深度学习的视图库布控报警方法 第 1 页 专利 基于深度学习的视图库布控报警方法 第 2 页 专利 基于深度学习的视图库布控报警方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 12:06:27上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。