首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

【ICML2023】基于最优多任务插值的多模态基础模型迁移

来源:专知本文为论文介绍,建议阅读5分钟在这项工作中,我们提出了一种通用的参数高效迁移学习方法。 基础模型在多任务学习方面取得了很大的进展,实现了统一的单模态和多模态任务接口。然而,在迁移学习过程中,这类多任务学习器的潜力尚未得到充分利用。在这项工作中,我们提出了一种通用的参数高效迁移学习方法,称为预测-插值调优(π-调优),适用于视觉、语言和视觉-语言任务。它汇集了从类似任务中学到的轻量级任务特定专家的参数,以帮助目标下游任务。任务相似性在统一的模态无关空间中进行预测,形成一个可扩展的图表来展示任务之间

01

arXiv | ExT5:利用大规模有监督多任务学习来改进NLP模型的自监督预训练策略

本文介绍由Google Research和DeepMind合作发表于arXiv上的研究工作。尽管近年来多任务学习和迁移学习在自然语言处理(NLP)领域取得了成功,但很少有工作系统地研究在预训练期间扩大任务数量的效果。本文提出了一个由107个有监督NLP任务组成、跨越不同领域和任务族的庞大集合EXMIX(Extreme Mixture)。利用EXMIX,作者研究了迄今为止规模最大的多任务预训练的效果,并分析了常见任务族之间的协同训练迁移。分析表明,为多任务预训练手动策划一个理想的任务集并不简单,而且多任务扩展本身就能极大地改善模型。最后,作者提出了一个使用自监督C4和有监督EXMIX的多任务目标进行预训练的模型ExT5。广泛的实验表明,ExT5在SuperGLUE、GEM、Rainbow、Closed-Book QA任务和EXMIX以外的几个任务上都优于强大的T5基线,而且ExT5在预训练时也明显提高了采样效率。

01

“北大-鹏城-腾讯”新视角:从势能的角度探讨模型的可迁移性-ICCV2023开源

随着大规模数据集预训练模型的广泛应用,迁移学习已成为计算机视觉任务中的关键技术。但是,从大量的预训练模型库中为特定下游任务选择最优的预训练模型仍然是一个挑战。现有的方法主要依赖于编码的静态特征与任务标签之间的统计相关性来测量预训练模型的可迁移性,但它们忽略了微调过程中潜在的表示动力学的影响,导致结果不可靠,尤其是对于自监督模型。在本文中,我们从潜在能量的角度提出了一种新颖的方法——PED,来解决这些挑战。我们将迁移学习动力视为降低系统潜在能量的过程,并直接对影响微调动力学的相互作用力进行物理学建模。通过在物理驱动模型中捕获动态表示的运动来降低潜在能量,我们可以获得增强和更稳定的观测结果来估计可迁移性。在10个下游任务和12个自监督模型上的实验结果表明,我们的方法可以顺利集成到现有的优秀技术中,增强它们的性能,这揭示了它在模型选择任务中的有效性和发掘迁移学习机制的潜力。我们的代码将在https://github.com/lixiaotong97/PED上开源。

04

迁移学习前沿探究探讨:低资源、领域泛化与安全迁移

作者丨王晋东 整理丨维克多 迁移学习是机器学习的一个重要研究分支,侧重于将已经学习过的知识迁移应用于新的问题中,以增强解决新问题的能力、提高解决新问题的速度。 4月8日,在AI TIME青年科学家——AI 2000学者专场论坛上,微软亚洲研究院研究员王晋东做了《迁移学习前沿探究探讨:低资源、领域泛化与安全迁移》的报告,他提到,目前迁移学习虽然在领域自适应方向有大量研究,相对比较成熟。但低资源学习、安全迁移以及领域泛化还有很多待解决的问题。 针对这三方面的工作,王晋东提供了三个简单的、新的扩展思路,以下是演讲

04

Generalized Few-Shot Object Detection without Forgetting

近年来,少样本目标检测被广泛用于处理数据有限的情况。虽然大多数以前的工作仅仅集中在少样本类别的性能上,我们声称检测所有类别是至关重要的,因为测试样本可能包含现实应用中的任何实例,这需要少样本检测器在不忘记的情况下学习新概念。通过对基于迁移学习的方法的分析,利用一些被忽略但有益的性质,设计了一种简单而有效的少样本检测器——Retentive R-CNN。它由偏置平衡的局部概率神经网络和预处理的局部概率神经网络组成,并通过重检测器在不忘记先前知识的情况下找到少量的类目标。在少拍检测基准上的大量实验表明,在所有设置中,Retentive R-CNN在整体性能上明显优于最先进的方法,因为它可以在少样本类上获得有竞争力的结果,并且根本不会降低基类的性能。我们的方法已经证明了长期期望的永不遗忘学习者在目标检测中是可用的。

01
领券