



2025年12月13日,ollama v0.13.4版本预发布,随后于2025年12月16日正式发布。本次更新是一次重要的版本迭代,包含新模型的推出、引擎默认设置的调整、Flash Attention机制的自动化启用,以及一系列对Gemma 3架构模型的修复与增强。以下是详细更新内容。
1. Nemotron 3 Nano 这是一款全新的开放高效智能代理模型,定义了高性能标准,面向智能代理应用场景。
2. Olmo 3 与 Olmo 3.1 这一系列开放语言模型旨在推动语言模型研究科学化。 其预训练基于 Dolma 3 数据集,后训练使用 Dolci 数据集,代表了更系统化的语言模型训练流程。
• 在 api/client.go 文件中修正了 Modelfile 的超链接后缀,将.md改为.mdx。
• 删除了 macOS 与 Windows 平台中“发送 UI 请求消息”的冗余代码,使应用逻辑更简洁。
• cocoa 对话框代码中增强了多文件处理机制,确保缓冲区内存安全。
• Windows 文件对话框错误输出格式更准确。
• server.go 修改了模型路径检查逻辑,在路径不可用时使用默认路径。
• wintray/eventloop.go 改进了底层事件循环的内存安全处理,增加了注释控制。
• 文档 docs/api.md 全面更新对 Modelfile.mdx 的链接引用,使说明一致化。
• 新增工具文档与示例提取功能:新增目录: .
docs/tools/extract-examples包含:
提取后可执行:
README.md:介绍如何将 MDX 中的代码示例提取到临时目录运行。main.go:示例提取脚本,支持自动生成 package.json 与 pyproject.toml 依赖文件。.
cd <tmp-dir>
npm install # JS示例
node file.js 或 python file.py 或 bash file.shenvconfig/config.go 调整了 OLLAMA_NEW_ENGINE 的默认值逻辑,引入 BoolWithDefault 方法,使引擎启用逻辑更灵活。1. Flash Attention 类型系统引入
ml/device.go 新增 FlashAttentionType 枚举类型:
AutoDisabledEnabled此设计使 Flash Attention 模式控制更细化,支持自动适配硬件。
2. GGML 图计算增强
在 fs/ggml/ggml.go 中,Flash Attention 引入枚举类型接口,支持多种量化缓存类型检测与验证方法,提升兼容性。
3. Llama 引擎增强
llama/llama.go 重构了 Flash Attention 参数逻辑——支持自动、启用与禁用三种模式,适配不同模型及硬件环境。
4. LLM 服务逻辑优化
llm/server.go 增加了 Flash Attention 用户显式设置检测逻辑,并完善了 KV 缓存量化兼容性处理。当使用量化 KV 缓存类型时必须启用 Flash Attention。
KV 缓存校验机制进一步完善,增加更详细的警告提示与逻辑分支。
5. ML 后端结构改进
ml/backend.go 与 ml/backend/ggml/ggml.go 中统一 Flash Attention 类型接口,并在注意力计算中使用新的枚举系统,实现高效的多设备内存调度与算子融合优化。
model/models/gemma3/model_text.go
对 Gemma 3 的旋转位置嵌入 (RoPE) 算法进行了调整:
ropeValuesForLayer 方法,按层返回位置嵌入基础值与缩放因子。ropeScale 为 1.0。openai/responses.go
调整了工具调用消息的合并逻辑:
同时新增全面的单元测试 openai/responses_test.go,覆盖函数调用与工具输出场景,验证新逻辑稳定性。
代码地址:github.com/ollama/ollama
ollama v0.13.4 是一次大幅度增强版发布,重点在于:
我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,发消息可获得面试资料,让AI助力您的未来发展。