视觉语言驱动的零镜头时间动作检测新模型STALE

0 下载量 53 浏览量 更新于2024-06-19 收藏 868KB PDF 举报
零镜头时间动作检测(Zero-Shot Temporal Action Detection, ZSL-TAD)是一种先进的计算机视觉技术,它旨在解决传统时间动作检测方法在面对未见过的动作类别时的局限性。这些传统方法往往依赖大量的带有分段级注释的训练数据,这对于新动作类别的识别和扩展性来说成本高昂且不切实际。零镜头学习的概念借鉴自零拍摄图像分类,其核心在于让模型能够在无需特定类别训练数据的情况下理解和识别动作。 视觉语言识别(Visual Language Understanding, ViL)模型,如CLIP和ALIGN,通过捕捉图像和文本之间的关联,为零镜头学习提供了可能。它们能从自然语言描述中提取通用特征,使得模型能够在没有特定训练样本的情况下,根据描述理解新动作类别。Sauradip Nag、Xiatian Zhu、Yi-Zhe Song 和 Tao Xiang等人提出了一种创新的模型——基于视觉语言提示的时空目标检测模型(STALE),它整合了现有的目标检测器与CLIP式的分类器,以解决位置错误传播的问题。 STALE设计的关键在于消除定位和分类之间的直接依赖,通过一个有效的架构来打破错误传播路径,提高了模型的鲁棒性和泛化能力。该模型还引入了分类和局部化的交互机制,进一步提升了性能优化。在多个标准视频基准测试中,STALE展示了显著优于现有最先进的方法的性能,甚至超过了监督学习中的强有力竞争者。STALE的实现基于PyTorch,用户可以通过https://github.com/sauradip/STALE获取代码。 零镜头迁移学习在时间动作定位领域具有重要意义,因为它不仅降低了对大规模标注数据的依赖,而且允许模型灵活适应新的任务和动作。未来的研究可能会沿着语言引导的零镜头方向发展,探索更多的应用场景,比如视频内容检索、自动摘要生成或智能监控系统。这将推动计算机视觉领域的边界,促进更高效、灵活和智能的多媒体分析。