首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >黄仁勋为何与这家国产AI模型创始人单独会面两个小时?

黄仁勋为何与这家国产AI模型创始人单独会面两个小时?

作者头像
芯智讯
发布2026-03-19 13:58:33
发布2026-03-19 13:58:33
1680
举报

7月18日,英伟达(NVIDIA)创始人兼首席执行官黄仁勋在单独会见了中国大模型初创公司MiniMax(希宇科技)创始人闫俊杰,双方进行了两个小时的深入交流,分享了对中美AI行业当下与未来的看法。有消息称,闫俊杰也是唯一单独会见黄仁勋的中国AI创业公司创始人。

据了解,MiniMax 由前商汤科技副总裁、研究院副院长兼智慧城市事业群 CTO闫俊杰在2021 年创立。

今年6月17日,MiniMax宣布推出了全球首个开源的大规模混合架构的推理模型M1,不仅性能超过国内的闭源模型,接近最新版的DeepSeek R1以及海外的最领先模型,同时还拥有更为出色的效率和业内最高的性价比。

图片
图片

在阿里巴巴集团、腾讯和 IDG 资本的支持下,MiniMax 声称其 Lightning Attention 机制是一种计算注意力矩阵的方法,可以提高训练和推理效率,使其 M1 模型在计算长上下文输入和尝试推理时具有优势。

因此,M1显著的优势是支持目前业内最高的100万上下文的输入,跟闭源模型里面的 Google Gemini 2.5 Pro 一样,是 DeepSeek R1 的 8 倍,以及业内最长的8万Token的推理输出。

图片
图片

MiniMax表示,这主要得益于其独创的以闪电注意力机制为主的混合架构,从而在计算长的上下文输入以及深度推理的时候显著高效。例如,在用8万Token深度推理的时候,只需要使用DeepSeek R1约30%的算力。这个特性使得MiniMax M1在训练和推理的时候都有很大的算力效率优势。

除此之外,MiniMax提出了更快的强化学习算法CISPO,通过裁剪重要性采样权重(而非传统token更新)提升强化学习效率。在AIME 的实验中,MiniMax发现这比包括字节近期提出的 DAPO 等强化学习算法收敛性能快了一倍,显著的优于 DeepSeek 早期使用的 GRPO。

图片
图片

得益于上述两个技术创新,MiniMax最终强化训练过程非常高效,超出预期。实际上整个强化学习阶段只用到512块H800三周的时间,租赁成本只有53.47万美金。这比一开始的预期少了一个数量级。

MiniMax在业内主流的 17 个评测集上详细评测了M1,结果显示M1在长上下文理解任务中表现卓越,仅以微弱差距落后于Gemini 2.5 Pro,但在在代理工具使用场景(TAU-bench)中战胜了Gemini 2.5 Pro。具体的结果如下:

图片
图片

因为相对高效的训练和推理算力使用,MiniMax宣布在 MiniMax APP 和 Web 上都保持不限量免费使用。

同时,还将以业内最低的价格在官网提供API:在0-32k的输入长度的时候,输入0.8元/百万token, 输出8元/百万token;在32k-128k的输入长度的时候,输入1.2元/百万token, 输出16元/百万token;在最长的 128k-1M 的输入长度的时候,输入2.4元/百万token, 输出24元/百万token。

前面两种模式都比 DeepSeek-R1 性价比更高,后面一种模式 DeepSeek 模型不支持。

编辑:芯智讯-浪客剑

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-07-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 芯智讯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档