自我与交叉引导学习:提升小样本分割性能

需积分: 13 4 下载量 117 浏览量 更新于2024-07-08 收藏 3.58MB PPTX 举报
"这篇文档是关于CVPR2021会议上的一篇研究论文,主题是'Self-Guided and Cross-Guided Learning for Few-Shot Segmentation',主要探讨了小样本分割(Few-Shot Segmentation)的问题。该研究旨在解决现有方法在小样本分割时因使用全局平均池化(GAP)导致的关键信息丢失问题,提出了自我引导学习(Self-Guided Learning, SGM)和交叉引导学习(Cross-Guided Learning, CGM)两个新模块。 在小样本分割中,目标是利用有限的带标注样本高效地分割未见过的类别。现有的技术通常依赖于掩码全局平均池化来编码支持图像,形成特征向量以指导查询图像的分割。然而,平均操作往往抹去了图像中的细节差异。为此,研究者们设计了一个自我引导学习策略,通过初始预测来区分覆盖和未覆盖的前景区域,分别用掩码GAP编码为主支持向量和辅助支持向量。这两种向量的融合能提升对查询图像的分割效果。 进一步,他们提出了交叉引导模块,适用于多样本分割任务。在这个模块中,最终的掩码是通过综合多个带注释样本的预测得出的,高质量的支持向量对结果的贡献更大。这个模块的优势在于,它不需要额外的训练,在推理阶段就能直接提升预测的准确性。 实验结果显示,这种方法在PASCAL-5i和COCO-20i数据集上取得了最新的最佳性能。1-shot分割中,mIoU达到61.8%,5-shot分割中达到62.9%。这表明,该方法不仅可以应用于各种基线模型,而且能有效提升它们的性能,对于处理小样本和未知类别的语义分割问题具有显著的改进作用。"