Ollama v0.6.4 预发布版重磅更新!
Ollama作为当前最热门的本地大模型运行框架,近日推出了v0.6.4 预发布版本,带来了一系列关键修复和优化!本次更新重点改进了Gemma 3的性能表现,并修复了多个影响体验的 Bug,AI 玩家们赶紧来一睹为快!
主要更新内容
1. /api/show 新增模型能力显示(如视觉支持)
• 现在通过/api/show接口可以查看模型的完整能力,包括是否支持多模态(如图像识别),方便开发者更灵活地调用模型功能。
2. Gemma 3 内存泄漏问题修复
• 此前 Gemma 3 在长时间推理时可能出现OOM(内存不足)崩溃,v0.6.4 优化了内存管理,运行更稳定!
3. Gemma 3 多语言字符处理增强
• 修复了 Gemma 3 对**非英文字符(如中文、日文)**的识别和生成问题,输出质量更高!
4. DeepSeek 架构上下文偏移问题修复
• 部分采用 DeepSeek 架构的模型(如 DeepSeek LLM)在长文本生成时可能出现**“上下文错乱”**,本次更新彻底解决!
5. Gemma 3 长文本输出优化(512/1024 tokens 后质量下降修复)
• 在 v0.6.3 中,Gemma 3 生成超过 512 或 1024 tokens 后,回答质量会明显下降,新版本已修复该问题,长文生成更流畅!
6. Linux 平台新增 RDNA4 显卡支持(AMD 用户狂喜!)
• 现在RDNA4 架构显卡(如 RX 7000 系列)在 Linux 上也能更好地运行 Ollama!
如何升级?
如果你是 Ollama 用户,可以通过以下命令更新到最新预发布版本:
ollama upgrade
或手动下载最新版本:Ollama GitHub Release[1]
为什么这次更新很重要?
•Gemma 3 用户:终于不用再担心内存爆炸或长文本崩坏了!
•非英语用户:生成质量提升,特别是中文、日文等复杂字符的处理更精准。
•AMD 显卡玩家:RDNA4 支持让 Linux 用户也能畅快跑模型!
结语
Ollama v0.6.4 虽然只是预发布版,但已经解决了多个关键问题,特别是Gemma 3 和 DeepSeek 架构的稳定性大幅提升!如果你是 AI 开发者或本地模型爱好者,强烈建议升级体验!
引用链接
[1]Ollama GitHub Release:https://github.com/ollama/ollama/releases
·
欢迎关注“福大大架构师每日一题”,让AI助力您的未来发展。
·
领取专属 10元无门槛券
私享最新 技术干货