无命题时间动作检测:全局分割模板学习新方法

0 下载量 107 浏览量 更新于2024-06-19 收藏 1.51MB PDF 举报
“基于全局分割模板学习的无命题时间动作检测” 在时间动作检测(Temporal Action Detection,TACT)领域,当前的方法通常依赖于为每个视频生成大量的动作建议,然后对这些建议进行处理以识别动作的起始和结束时间。然而,这种依赖建议的方式导致了复杂的模型设计和高昂的计算成本。为了克服这一问题,研究者们首次提出了一种无需建议的检测模型,称为全局分割模板学习(Global Segment Masking,简称TAGS)。TAGS的核心理念是在整个视频时序上联合学习每个动作实例的全局分割掩模,从而直接检测动作的起点和终点。 与传统基于建议的方法相比,TAGS模型聚焦于全局时间表示的学习,能够直接检测和定位动作实例,而无需先生成建议。这种方法简化了模型架构,降低了计算成本。大量实验结果显示,尽管TAGS模型设计简洁,但它在两个基准测试中超越了现有方法,实现了新的最先进的性能。而且,TAGS模型的训练速度比其他方法快20倍,推理速度提升100倍,提高了效率。其PyTorch实现可供研究人员使用,可从https://github.com/sauradip/TAGS访问。 现有的TACT方法如锚定方法,通常基于预定义的锚框或者直接预测建议的开始和结束时间来生成动作提案。这些方法以单个建议为中心,对每个提案进行时间和类别的精细化分析。然而,这种方法存在的问题是需要大量的提案以确保良好的检测效果,例如,BMN算法通过详尽的开始点和结束点配对为每个视频生成500个提案。 TAGS模型的创新之处在于其整体建模策略,它避免了对单个建议的逐个处理,而是考虑全局视频上下文,以更高效的方式检测动作实例。这种方法减少了计算资源的需求,使得在不牺牲性能的情况下,能够快速训练和推理,这对于实时应用和大规模视频数据处理至关重要。 基于全局分割模板学习的无命题时间动作检测为解决TACT中的计算效率和复杂性问题提供了一个新颖且有效的方法。未来的研究可能将探索如何进一步优化TAGS模型,以适应更多样化的视频内容和更复杂的场景,同时保持其高效性和准确性。