首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

字节跳动与中科大联合提出多模态文档大模型 DocPedia

据站长之家 12 月 4 日报道,字节跳动与中国科学技术大学合作研发的多模态文档大模型 DocPedia 已成功突破了分辨率的极限,达到了 2560×2560 的高分辨率,而目前业内先进多模态大模型如 LLaVA、MiniGPT-4 等处理图像分辨率上限为 336×336,无法解析高分辨率的文档图像。这一成果是通过研究团队采用了一种新的方法,解决了现有模型在解析高分辨文档图像方面的不足。

据称,DocPedia 不仅能准确识别图像信息,还能结合用户需求调用知识库回答问题,展现高分辨率多模态文档理解的能力。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Oq1ETuePLrvqtTkkVQtgJjog0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券