首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Bunny-3B: 数据浓缩技术让3B多模态小模型媲美13B大模型

近期,Microsoft、Google、StabilityAI 等机构发布了多款小语言模型,并由此衍生出了一系列多模态小模型。多模态小模型因为训练和部署成本低,吸引了更多技术人员参与其中,这一趋势将促进大模型技术快速发展和普及。

受到参数量的限制,多模态小模型的性能下降严重。针对这个问题,智源首次提出了通过数据浓缩技术获得高质量训练数据,从而提升多模态小模型性能的方案。具体而言,团队基于数据分布和图文匹配度将 LAION-2B 浓缩成 2M 核心集以得到更丰富的预训练数据,基于 DataOptim 和 SVIT 数据集精选得到更高质量的指令微调数据,从而训练得到性能强劲的小模型。

基于这一技术路线,BAAI推出新一代多模态小模型 Bunny 系列。其中,Bunny-3B 取得了全新SOTA,性能全面碾压 7B 以下模型,在多个基准上超越了 Imp、LLaVA-Phi、MobileVLM 等一系列近期热门模型,取得了与 LLaVA-v1.5-13B 等大模型相当的多模态理解和推理能力。

主要亮点‍

数据驱动:通过数据浓缩得到高质量训练数据,从而打破 scaling law,让小模型性能接近大模型。

架构灵活:提供多种即插即用的视觉和语言 backbone,可任意组合成新的模型,满足个性化需求。

低资源:更低的训练和推理成本,让更多低资源用户参与推动大模型的发展和普及。

代码、模型均已开源:

项目地址:https://github.com/BAAI-DCAI/Bunny

模型下载地址:https://huggingface.co/BAAI/bunny-phi-2-siglip-lora

具体地,Bunny 基于数据分布和图文匹配度将 LAION-2B 浓缩成 2M 核心集以得到更丰富的预训练数据,基于 DataOptim 和 SVIT 数据集精选得到更高质量的指令微调数据,从而训练得到一个性能强劲的小模型。Bunny-3B 在绝大多数基准上超越了 Imp、LLaVA-Phi、MobileVLM 等一系列近期热门模型,还取得了与 LLaVA-v1.5-13B 等大模型相当的多模态理解和推理能力。

Bunny 模型采用了经典的 Encoder+Projector+LLM 架构,提供了一个可扩展的组合框架。支持多种 Vision Encoders,如 EVA CLIP、SigLIP 等,以及多种 LLM Backbone,包括 Phi-1.5、Phi-2、StableLM-2 等。灵活的架构设计便于用户基于Bunny开展大模型研究。模型结构如下图所示:

Table 1展示了各类多模态模型的评估结果对比。其中,Bunny 在大部分基准中达到了最佳性能。值得关注的是,Bunny 在一部分指标上甚至超越了诸如 LLaVA-v1.5-13B 等更大规模的经典模型。

Table 2展示了 Bunny 系列模型的测评结果。体现出 Bunny 的高度可扩展性,即用户可以自由组合常见的视觉和语言模型,以便定制个性化多模态小模型。

下图展示了 Bunny 的真实测试样例。粗体文本为用户输入,未加粗部分为模型输出。可以看出,Bunny 能够精准地理解视觉信息,进行常识推理,解决数学问题。

轻量化作为多模态大模型普及的必经之路,如今已成为学术界和工业界的研究热点。如何在减少模型参数量和推理成本的同时,最大限度地保持和提升大模型的性能,是亟待探索的研究问题。在实现大模型轻量化的过程中,数据驱动的多模态模型研究将发挥关键作用。Bunny系列模型的训练方案从数据优化角度出发,通过数据浓缩获得高质量训练数据,成功训练出媲美13B多模态大模型的3B小模型,为多模态大模型轻量化研究提供了新的思路和工具。

技术解读直播预约

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OOU_fOSC7wor2x_8zH0vcavg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券