RGB-D视频与CNN结合的行为识别算法
需积分: 0 18 浏览量
更新于2024-08-04
收藏 1.64MB PDF 举报
“结合RGB-D视频和卷积神经网络的行为识别算法.pdf”是关于人体行为识别技术的一篇学术论文,主要探讨了如何利用RGB-D视频(包含颜色和深度信息的视频)以及卷积神经网络(CNN)来提升行为识别的准确性和鲁棒性。
在引言部分,文章指出人体行为识别在人机交互、视频检索和视频监控等领域具有广泛应用,传统基于RGB相机的方法受光照、遮挡等因素影响较大。随着3D体感传感器如Kinect的出现,研究者开始利用RGB-D数据来降低这些影响,提高识别算法的稳定性。
本文提出了一种新的行为识别算法,该算法解决了早期融合RGB图像和深度图像特征时遇到的高维度和计算复杂度问题。具体步骤如下:
1. **RGB视频处理**:首先,将RGB视频序列分割成可重叠的子序列片段,这有助于捕获静态外观和短期运动信息。这些片段被输入到卷积神经网络进行训练,以学习和提取关键特征。
2. **深度图序列处理**:在深度图序列中,通过计算改进的深度运动图(Depth Motion Map, DMM),捕捉长期运动信息。DMM作为输入进入二维卷积神经网络进行训练,进一步提取深度信息中的运动模式。
3. **决策融合**:最后,通过改进的加权乘积法融合来自RGB视频和深度图序列的卷积神经网络的预测分数,得出最终的行为分类结果。这种方法旨在优化不同来源信息的融合,提高识别精度。
实验验证在公开的数据集UTD-MHAD和MSR Daily Activity 3D上进行,结果显示,该算法能有效地提取行为的静态外观和时间域运动信息,实现了良好的识别效果。
关键词包括人体行为识别、深度运动图、RGB、卷积神经网络和决策融合,表明该研究的核心内容涉及这些技术领域。论文的中图分类号TP391.4和DOI:10.3969/j.issn.1672-9722.2020.12.046提供了文献的分类和电子标识符,便于后续引用和检索。
点击了解资源详情
点击了解资源详情
点击了解资源详情
2021-08-19 上传
2021-09-25 上传
2021-09-26 上传
2021-09-26 上传
2021-09-26 上传
2021-08-31 上传
宋罗世家技术屋
- 粉丝: 1366
- 资源: 109
最新资源
- C语言数组操作:高度检查器编程实践
- 基于Swift开发的嘉定单车LBS iOS应用项目解析
- 钗头凤声乐表演的二度创作分析报告
- 分布式数据库特训营全套教程资料
- JavaScript开发者Robert Bindar的博客平台
- MATLAB投影寻踪代码教程及文件解压缩指南
- HTML5拖放实现的RPSLS游戏教程
- HT://Dig引擎接口,Ampoliros开源模块应用
- 全面探测服务器性能与PHP环境的iprober PHP探针v0.024
- 新版提醒应用v2:基于MongoDB的数据存储
- 《我的世界》东方大陆1.12.2材质包深度体验
- Hypercore Promisifier: JavaScript中的回调转换为Promise包装器
- 探索开源项目Artifice:Slyme脚本与技巧游戏
- Matlab机器人学习代码解析与笔记分享
- 查尔默斯大学计算物理作业HP2解析
- GitHub问题管理新工具:GIRA-crx插件介绍