首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ollama v0.6.4 预发布版本震撼发布!Gemma 3 性能大升级,内存泄漏终修复!

Ollama v0.6.4 预发布版重磅更新!

Ollama作为当前最热门的本地大模型运行框架,近日推出了v0.6.4 预发布版本,带来了一系列关键修复和优化!本次更新重点改进了Gemma 3的性能表现,并修复了多个影响体验的 Bug,AI 玩家们赶紧来一睹为快!

主要更新内容

1. /api/show 新增模型能力显示(如视觉支持)

• 现在通过/api/show接口可以查看模型的完整能力,包括是否支持多模态(如图像识别),方便开发者更灵活地调用模型功能。

2. Gemma 3 内存泄漏问题修复

• 此前 Gemma 3 在长时间推理时可能出现OOM(内存不足)崩溃,v0.6.4 优化了内存管理,运行更稳定!

3. Gemma 3 多语言字符处理增强

• 修复了 Gemma 3 对**非英文字符(如中文、日文)**的识别和生成问题,输出质量更高!

4. DeepSeek 架构上下文偏移问题修复

• 部分采用 DeepSeek 架构的模型(如 DeepSeek LLM)在长文本生成时可能出现**“上下文错乱”**,本次更新彻底解决!

5. Gemma 3 长文本输出优化(512/1024 tokens 后质量下降修复)

• 在 v0.6.3 中,Gemma 3 生成超过 512 或 1024 tokens 后,回答质量会明显下降,新版本已修复该问题,长文生成更流畅!

6. Linux 平台新增 RDNA4 显卡支持(AMD 用户狂喜!)

• 现在RDNA4 架构显卡(如 RX 7000 系列)在 Linux 上也能更好地运行 Ollama!

如何升级?

如果你是 Ollama 用户,可以通过以下命令更新到最新预发布版本:

ollama upgrade

或手动下载最新版本:Ollama GitHub Release[1]

为什么这次更新很重要?

Gemma 3 用户:终于不用再担心内存爆炸或长文本崩坏了!

非英语用户:生成质量提升,特别是中文、日文等复杂字符的处理更精准。

AMD 显卡玩家:RDNA4 支持让 Linux 用户也能畅快跑模型!

结语

Ollama v0.6.4 虽然只是预发布版,但已经解决了多个关键问题,特别是Gemma 3 和 DeepSeek 架构的稳定性大幅提升!如果你是 AI 开发者或本地模型爱好者,强烈建议升级体验!

引用链接

[1]Ollama GitHub Release:https://github.com/ollama/ollama/releases

·

欢迎关注“福大大架构师每日一题”,让AI助力您的未来发展。

·

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OiEwLbQhmM5yCIu2_Bi3SKEw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券