
在人工智能领域,让模型具备 “看几个例子就能学会新任务” 的能力,一直是研究者追求的目标。这种在自然语言处理中已趋成熟的上下文学习(In-Context Learning),如今正被深入应用于视觉世界,催生出视觉上下文学习(Visual In-Context Learning, VICL)。
然而,当前主流方法多遵循 “检索-提示” 范式,往往只挑选最相似的一个示例作为指导。这好比学画时只临摹一幅最像的作品,却忽略了其他视角、风格各异的佳作,无形中丢弃了宝贵的多样性信息。
虽然已有研究尝试将多个示例融合成单一提示,但简单的聚合如同将多种颜料混成一色,反而让模型失去了分辨、权衡不同线索的机会。真正的突破,需要一种更精巧的“多面融合”机制。
视觉上下文学习的目标,是让模型仅通过观察几个给定的视觉示例,就能理解和完成新的视觉任务。例如,给定几张分割好的“猫”的图片,模型就能自动对新图片中的猫进行分割。
传统方法如 MAE-VQGAN 使用单一最相似的图像-标签对作为提示。后续研究如 Prompt-Self、VPR、Partial2Global 等虽在提示选择与排序上做了优化,但依然只选一个。
CONDENSER 方法迈出了重要一步:它将前 K 个示例融合成一个更完整的提示。但问题依然存在——简单压缩会丢失多样性,模型无法对不同来源的信息进行权衡与比较。

该研究的核心思路是:不压缩,而是协作。其框架包含两大关键创新:
受解耦表示学习启发,研究团队提出根据示例与查询图像的相似度,将 Top-K 个支持示例分为三组:
这种分组策略显式地保留并利用了互补的上下文信息。

研究团队设计了全新的 MULTI-VQGAN 架构来处理这三组信息。其核心是一个多分支编码器:
关键创新在于分层融合机制。在主干网络的一系列中间层中,引入可学习的FUSE模块。该模块利用交叉注意力机制,动态地将两个辅助分支的引导特征整合到主干特征中,实现层次化的特征融合。


研究团队在前景分割、单目标检测、图像上色三个任务上进行了全面测试。
在PASCAL-5ⁱ数据集上的实验表明,该方法在K=8和K=16两种设置下,性能均全面超越包括CONDENSER在内的现有方法。在分割任务上实现了5.6% 的显著性能提升。
更值得一提的是其强大的跨域泛化能力。在COCO-5ⁱ数据集上训练,然后在PASCAL-5ⁱ上测试的挑战性设置中,该方法同样表现最优,证明了其学到的表示具有高度的可迁移性。
通过系统的消融实验,研究团队验证了各个组件的必要性:

可视化结果显示,该方法在复杂场景中能更好地保持物体结构的完整性和细节的清晰度,检测框更紧致准确,上色效果更自然连贯。
这项研究推动视觉上下文学习从 “选择或压缩提示” 迈向 “协作融合提示” 的新阶段。通过创新的多提示分组策略(MPGS)和分层多分支融合架构(MULTI-VQGAN),模型能够充分利用多个示例中的互补信息,从而做出更鲁棒、更准确的预测。
广泛的实验证明,该方法在多种任务和跨域场景下均具有优越的泛化能力。这不仅为视觉上下文学习提供了新思路,也为构建更通用、更强大的视觉基础模型奠定了坚实基础。
未来,这种 “多面协作” 的融合范式有望扩展到更多视觉乃至多模态任务中,让人工智能的上下文学习能力更接近人类的“举一反三”。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。