首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

研究人员推出全新视觉提示方法 SoM,可让 GPT-4V 看的更准、分的更细

据站长之家 10 月 23 日报道,研究人员推出了一种新的视觉提示方法 Set-of-Mark(SoM),它可以让 OpenAI 多模态大模型 GPT-4V 在细粒度视觉任务上有更好的表现。GPT-4V 是一种基于 GPT-4 的多模态模型,可以同时处理文本和图像,并生成多种类型的输出。

SoM 的核心思想是使用交互式分割模型(例如 SAM)将图像划分为不同粒度级别的区域,并在这些区域上添加一组标记(mark),例如字母数字、掩码(mask)、框(box)。使用添加标记的图像作为输入,以解决上述问题。研究人员认为,这种方法可以让 GPT-4V 更好地理解图像中的物体和空间关系,并且可以利用 GPT-4 V 的生成能力来产生文本之外的输出,如掩码或框。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OIxEcpm_wvSb4M4rwvalSaGQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券