首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >MiniMax M2 开源,全球TOP5级别,实测,还算优秀

MiniMax M2 开源,全球TOP5级别,实测,还算优秀

作者头像
Ai学习的老章
发布2025-11-20 11:22:43
发布2025-11-20 11:22:43
30
举报

大家好,我是 Ai 学习的老章

6月MiniMax M1开源,原生支持 100 万 token 的上下文长度十分抢眼,刚刚MiniMax M2 开源了,感受了一下,还算优秀,除了TOP5级的实力,还有它的模型大小比M1的900GB+降到了230GB,本地部署成为可能。

MiniMax M2

MiniMax M2 专为 Agent 和代码打造,价格仅为 Claude Sonnet 的 8%,速度却是其两倍,限时免费!

模型文件 230GB:https://huggingface.co/MiniMaxAI/MiniMax-M2
模型文件 230GB:https://huggingface.co/MiniMaxAI/MiniMax-M2

模型文件 230GB:https://huggingface.co/MiniMaxAI/MiniMax-M2

  • 顶级编码能力:专为端到端开发工作流设计,它在 Claude Code、Cursor、Cline、Kilo Code 和 Droid 等众多应用中表现出色。
  • 强大的代理性能:它展示了出色的规划能力和对复杂、长链工具调用任务的稳定执行,协调对 Shell、浏览器、Python 代码解释器以及各种 MCP 工具的调用。
  • 极致的性价比与速度:通过高效设计激活参数,实现了智能、速度和成本的最佳平衡。
编程、工具使用和深度搜索性能对比
编程、工具使用和深度搜索性能对比

编程、工具使用和深度搜索性能对比

看测评代码能力也就比 Claude Sonnet 4.5 和 GPT-5 的 Thinking 版弱

后面我自己测试的两个例子,MiniMax-M2 已经和 Claude Sonnet 3.7 一个档次了

官方测试也显示硬刚Sonnet4.5有点难

在流行的 Artificial Analysis 基准测试中(综合 10 项测试任务),MiniMax-M2 排第五

在线体验

通用 Agent 产品 MiniMax Agent,由 MiniMax-M2 驱动,现在完全开放使用,并限时免费:https://agent.minimax.io/

两种模式:

  • 闪电模式: 一种高效高速的 Agent,适用于即时输出的场景,如对话式问答、轻量级搜索和简单的编码任务。它增强了基于对话的产品体验,具备强大的代理能力。
  • 专业模式: 在复杂且长时间运行的任务中提供专业的代理能力,并具有最佳性能。它在深入研究、全栈开发、制作 PPT/报告、网页开发等方面表现出色。
在线体验:https://agent.minimax.io/
在线体验:https://agent.minimax.io/

在线体验:https://agent.minimax.io/

  • 高级编码:擅长复杂的开发工作流程,包括多文件编辑和经测试验证的修复。
  • 卓越性能:凭借强大的规划能力,可靠执行复杂的长期工具链。
  • 高效且响应迅速:实现更低的延迟和更高的吞吐量,带来更快的代理体验。

我的测试就是直接使用了 Agent 的闪电模式,对比其他模型时,可能有点占便宜

API

API 价格: 每百万输入令牌 0.30 美元/2.1 元人民币,每百万输出令牌 1.20 美元/8.4 元人民币 ,同时提供每秒约 100TPS(令牌/秒)的在线推理服务。 这个价格是 Claude 3.5 Sonnet 的 8%,推理速度几乎是其两倍。

MiniMax-M2 API 可在 MiniMax 开放平台获取,并限时免费: https://platform.minimax.io/docs/api-reference/text-anthropic-api

接口调用方式:

代码语言:javascript
复制

import anthropic

client = anthropic.Anthropic(
    base_url="https://api.minimax.io/anthropic",
    api_key="", # Your MiniMax API Key
)

message = client.messages.create(
    model="MiniMax-M2",
    max_tokens=1024,
    messages=[
        {
            "role": "user",
            "content": "Explain machine learning in simple terms"
        }
    ]
)

print(message.content[0].text)

本地部署

vLLM 或 SGLang 部署 MiniMax-M2 均可,具体方式:

vLLM: https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/vllm_deploy_guide.md

SGLang:https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/sglang_deploy_guide.md

实测

先看一个我最近常用的题目,感觉不如 智朴的GLM4.6 啊,甚至不如快手的变成大模型

GLM-4.6

另一个题目,比一众模型强多了,可以正常识别四次背影,也很美观

但是缺点是引号中的内容匹配的不对

目前测试这么多模型,标准答案依然是 Claude Sonnet 3.7

另外MiniMax M2的API可以直接与Claude Code结合使用,方法 [[2025-07-18-Claude Code + Kimi K2 & DeepSeek 强强联合]]

@jungeAGI做了测试,创建一个 macOS Sonoma 风格的网页,效果很不错,要求: 1.实现毛玻璃效果的顶部菜单栏 2. 包含至少 3 个带有 3D 悬浮效果的卡片 3.鼠标悬停时有平滑的动画过渡 4.支持深色/浅色模式切换 5.所有样式用纯 CSS 实现,不使用外部库

在另外,量化版的也出来了,最快的居然还是MLX,模型文件129GB

https://huggingface.co/mlx-community/MiniMax-M2-4bit
https://huggingface.co/mlx-community/MiniMax-M2-4bit

https://huggingface.co/mlx-community/MiniMax-M2-4bit

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-10-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与统计学 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • MiniMax M2
  • 在线体验
  • API
  • 本地部署
  • 实测
  • GLM-4.6
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档