
大家好,我是 Ai 学习的老章
6月MiniMax M1开源,原生支持 100 万 token 的上下文长度十分抢眼,刚刚MiniMax M2 开源了,感受了一下,还算优秀,除了TOP5级的实力,还有它的模型大小比M1的900GB+降到了230GB,本地部署成为可能。
MiniMax M2 专为 Agent 和代码打造,价格仅为 Claude Sonnet 的 8%,速度却是其两倍,限时免费!

模型文件 230GB:https://huggingface.co/MiniMaxAI/MiniMax-M2

编程、工具使用和深度搜索性能对比
看测评代码能力也就比 Claude Sonnet 4.5 和 GPT-5 的 Thinking 版弱
后面我自己测试的两个例子,MiniMax-M2 已经和 Claude Sonnet 3.7 一个档次了
官方测试也显示硬刚Sonnet4.5有点难

在流行的 Artificial Analysis 基准测试中(综合 10 项测试任务),MiniMax-M2 排第五

通用 Agent 产品 MiniMax Agent,由 MiniMax-M2 驱动,现在完全开放使用,并限时免费:https://agent.minimax.io/
两种模式:

在线体验:https://agent.minimax.io/
我的测试就是直接使用了 Agent 的闪电模式,对比其他模型时,可能有点占便宜
API 价格: 每百万输入令牌 0.30 美元/2.1 元人民币,每百万输出令牌 1.20 美元/8.4 元人民币 ,同时提供每秒约 100TPS(令牌/秒)的在线推理服务。 这个价格是 Claude 3.5 Sonnet 的 8%,推理速度几乎是其两倍。
MiniMax-M2 API 可在 MiniMax 开放平台获取,并限时免费: https://platform.minimax.io/docs/api-reference/text-anthropic-api
接口调用方式:
import anthropic
client = anthropic.Anthropic(
base_url="https://api.minimax.io/anthropic",
api_key="", # Your MiniMax API Key
)
message = client.messages.create(
model="MiniMax-M2",
max_tokens=1024,
messages=[
{
"role": "user",
"content": "Explain machine learning in simple terms"
}
]
)
print(message.content[0].text)
vLLM 或 SGLang 部署 MiniMax-M2 均可,具体方式:
vLLM: https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/vllm_deploy_guide.md
SGLang:https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/sglang_deploy_guide.md
先看一个我最近常用的题目,感觉不如 智朴的GLM4.6 啊,甚至不如快手的变成大模型


另一个题目,比一众模型强多了,可以正常识别四次背影,也很美观
但是缺点是引号中的内容匹配的不对

目前测试这么多模型,标准答案依然是 Claude Sonnet 3.7

另外MiniMax M2的API可以直接与Claude Code结合使用,方法 [[2025-07-18-Claude Code + Kimi K2 & DeepSeek 强强联合]]
@jungeAGI做了测试,创建一个 macOS Sonoma 风格的网页,效果很不错,要求: 1.实现毛玻璃效果的顶部菜单栏 2. 包含至少 3 个带有 3D 悬浮效果的卡片 3.鼠标悬停时有平滑的动画过渡 4.支持深色/浅色模式切换 5.所有样式用纯 CSS 实现,不使用外部库

在另外,量化版的也出来了,最快的居然还是MLX,模型文件129GB

https://huggingface.co/mlx-community/MiniMax-M2-4bit