首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >告别散装!蚂蚁金服新模型,一个模型搞定图像理解生成与编辑!

告别散装!蚂蚁金服新模型,一个模型搞定图像理解生成与编辑!

作者头像
AgenticAI
发布2025-11-26 17:55:16
发布2025-11-26 17:55:16
60
举报
文章被收录于专栏:AgenticAIAgenticAI

之前的视觉模型:理解与生成用一个模型,编辑图像得换另外一个,是不是很散装?在Qwen上就是如此。今天,蚂蚁金服开源的Ming-UniVision带来了完整解决方案,一个模型全部搞定。Ming-UniVision-16B-A3B,16B大小,3B激活,速度应该比较快

它不仅首次在连续统一表示空间中实现了理解与生成的原生融合,同时开源了配套的统一连续视觉标记器MingTok。这意味着它不仅能看图说话,文生图,图修图甚至还能进行深入的图像推理。

案例

首先我们看看图像生成

这个是可视化推理过程,比如使人变成笑脸,就是先推理找到要编辑的嘴部,然后编辑对应部位。

图像编辑功能,保持一致性的同时进行部位编辑,简直复刻google nanobanana!

技术亮点

亮点1: 统一的空间能解锁超快的训练。

通过减轻视觉和绘画之间的“表征竞争”,Ming-UniVision 在文本到图像任务上的收敛速度提高了 3.5 倍以上。更少计算,相同性能。

亮点2: 真正的魔力发生在多轮互动中。 传统模型在每次编辑时都会陷入缓慢的“潜在→像素→特征”循环中。Ming-UniVision 实现了直接的 Feature →循环。这意味着无缝且有状态的视觉对话,生成->编辑->重新生成,全部在相同的高保真环境中进行。

开源地址

探索代码,尝试模型,并与我们一起构建! GitHub:

https://github.com/inclusionAI/Ming-UniVision

HuggingFace:

- MingTok Tokenizer:

https://huggingface.co/inclusionAI/MingTok

- VisionMing-UniVision: https://huggingface.co/inclusionAI/Ming-UniVision-16B-A3B

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-10-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AgenticAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档