对抗攻击不止于检测:多目标跟踪的威胁

需积分: 10 0 下载量 16 浏览量 更新于2024-07-09 收藏 1.73MB PDF 举报
"Fooling Detection Alone is Not Enough - Adversarial Attack against Multiple Object Tracking" 这篇论文探讨了在计算机视觉领域,尤其是针对自动驾驶的视觉感知系统中的安全问题。它指出,尽管现有的研究已经关注到了对抗性样本(Adversarial Examples, AEs)对目标检测模型的影响,但这些研究并未充分考虑到在实际的视觉感知管道中,检测到的物体还需要通过多目标跟踪(Multiple Object Tracking, MOT)来构建周围障碍物的运动轨迹。MOT系统设计的目标是抵抗检测错误,这使得直接针对目标检测的攻击策略面临挑战。 论文强调,对于MOT系统,如果想要通过对抗性攻击影响跟踪结果,攻击的成功率必须超过98%,这是一个现有攻击技术难以达到的要求。因此,单纯欺骗目标检测并不足以破坏整个跟踪系统。作者Yunhan Jia、Yantao Lu、Junjie Shen等人来自不同的学术机构和企业,包括独立研究员、雪城大学、加州大学欧文分校、加州大学戴维斯分校、百度X-Lab和北京大学。 在ICLR 2020会议上发表的这篇论文,提出了一种新的攻击策略,即针对MOT系统的对抗性攻击。这种攻击方法可能涉及生成特定的对抗性样本,这些样本能够同时绕过目标检测和跟踪算法,从而干扰自动驾驶系统对环境的理解。这揭示了自动驾驶领域的安全漏洞,并强调了需要更全面的防御策略,不仅针对目标检测,还应覆盖跟踪环节。 此外,论文还可能涵盖了评估攻击效果的方法、如何量化MOT系统的抗攻击能力,以及可能的防御措施。这为研究人员提供了深入理解对抗性机器学习在实际应用中所面临的复杂性,以及如何改进系统以提高鲁棒性的思路。 "Fooling Detection Alone is Not Enough"论文强调了在计算机视觉和自动驾驶领域,攻击与防御策略需要更加全面,不应仅局限于目标检测,而应考虑整个视觉处理流程的完整性和安全性。通过这种深入研究,我们可以更好地保护自动驾驶系统免受恶意攻击,并促进相关技术的持续发展和优化。