自我与交叉引导学习:提升小样本分割性能

需积分: 14 0 下载量 155 浏览量 更新于2024-06-30 收藏 3.72MB PPTX 举报
"Self-Guided and Cross-Guided Learning for Few-Shot Segmentation" 本文主要探讨了小样本分割的问题,这是一个在计算机视觉领域中具有挑战性的任务,它旨在使用少量带标注的图像(支持图像)来对未见类别的查询图像进行分割。现有的方法通常依赖于掩码全局平均池(GAP)来将支持图像编码为特征向量,这种方法虽然简洁,但在平均操作过程中可能会丢失关键信息。 作者提出了一种自我引导学习方法(SGM),以解决上述问题。通过在标注的支持图像上进行初步预测,他们将被覆盖的前景区域编码为主支持向量,而未被覆盖的区域编码为辅助支持向量。这两种向量的融合有助于捕获更全面的上下文信息,从而在查询图像的分割过程中提高性能。这种方法不仅挖掘了丢失的关键信息,还避免了对大量像素级标注数据的依赖。 此外,受1-shot分割自我引导模块的启发,文章进一步引入了一个交叉引导模块(CGM)。在多 shot 分割任务中,CGM结合了来自多个支持图像的预测,根据预测的质量动态调整每个支持向量的贡献权重。这种策略无需重新训练模型就能在推理阶段提升最终预测的准确性。 在实验部分,该方法在PASCAL-5i和COCO-20i数据集上展现了卓越的性能,1-shot设置下的mIoU达到了61.8%,5-shot设置下则为62.9%。这表明,提出的自我引导学习和交叉引导模块对于提升小样本分割任务的性能具有显著效果,并且可以灵活地应用于各种基线模型,提升它们的预测准确度。 总结而言,这篇文献提出了针对小样本分割的新颖方法,通过自我引导和交叉引导机制,有效地利用了有限的标注信息,提高了模型的泛化能力和分割精度。这一成果对于深度学习和小样本学习领域的研究具有重要的参考价值,可能引领未来在减少标注需求和提高模型性能方面的发展方向。