基于CHMMs的多传感器融合行为识别:84%以上识别率与自适应性能

需积分: 9 1 下载量 3 浏览量 更新于2024-09-07 收藏 651KB PDF 举报
本文档深入探讨了一种基于CHMMs(Coupled Hidden Markov Models,耦合隐马尔可夫模型)的自适应行为识别方法,针对传感器行为识别系统中普遍存在的通道数据缺失问题。CHMMs是一种强大的统计建模工具,通过将多个独立的隐马尔可夫模型连接起来,能够捕捉到不同传感器数据之间的关联性和人体行为中身体不同部位之间的协同作用。研究者们针对站立、行走、坐、躺这四种常见的人体行为,利用加速度传感器作为数据源,设计了一种多传感器数据融合策略。 这种方法的核心在于,通过对传感器数据的有效融合,即使在部分数据缺失的情况下,也能提高行为识别的准确性。实验结果显示,该方法在这些行为的识别上达到了84%以上的高精度,这在同类方法中表现出显著的优势。此外,由于CHMMs的自适应性,该方法能适应不同个体和环境的变化,具备较好的鲁棒性和泛化能力。 论文作者包括李军怀教授、严其松硕士研究生、王志晓讲师、魏嵬讲师和张瞡教授,他们分别在物联网技术、行为识别、网络计算以及无线传感器网络等领域有所专长。他们的合作展示了在复杂系统中运用CHMMs进行行为识别的实际应用价值。 研究得到了国家自然科学基金和西安市科技计划的双重资助,显示出该领域的研究受到学术界和地方政府的高度重视。这篇论文为解决传感器行为识别中的数据缺失问题提供了一种创新且有效的解决方案,对于推动该领域的发展具有重要意义。