腾讯云公告 > 公告详情
扫码查看公告

【安全通告】Ollama 未授权访问漏洞风险通告

尊敬的腾讯云用户,您好!

腾讯云安全中心监测到, Ollama 被披露存在未授权访问漏洞,可导致未经身份验证的远程攻击者窃取敏感业务数据或滥用模型推理资源等危害。

为避免您的业务受影响,腾讯云安全建议您及时开展安全风险自查,如在受影响范围,建议及时进行修复,避免业务损失。

漏洞详情
Ollama 是一个开源的便于本地部署和运行 Llama 3、Mistral、Gemma 等大型语言模型的工具。

据描述,由于 Ollama 的默认部署配置未强制启用身份认证机制,如果服务端口(默认11434)直接暴露于公网,则攻击者可直接访问高危接口,从而读取、下载或删除私有模型文件,并窃取敏感业务数据或滥用模型推理资源,如果 Ollama 以 Docker 部署,则攻击者可能通过恶意指令注入实现容器逃逸。
- 模型管理接口(拉取/删除模型文件)
- 模型推理接口(执行任意 Prompt 指令)
- 系统配置接口(篡改服务参数)

风险等级
中风险

漏洞风险
未经身份验证的远程攻击者利用该漏洞可窃取敏感业务数据或滥用模型推理资源等危害。

影响版本
Ollama 所有版本(若直接暴露公网且未配置认证)

修复建议
1. 如无必要,建议将 Ollama 服务端口(11434)从公网关闭,仅允许内网或 VPN 访问;

2. 配置安全组,限制指定来源 IP 才能访问 Ollama 服务端口(11434);

3. 若需公网访问,建议配置反向代理(如 Nginx)并启用 HTTP Basic 认证或 OAuth 集成:
# Nginx 配置示例(需生成 .htpasswd 文件)
location / {
proxy_pass http://localhost:11434;
auth_basic "Ollama Admin";
auth_basic_user_file /etc/nginx/conf.d/ollama.htpasswd;
}

【备注】
1. 建议在修复前对现有模型数据及配置文件进行备份。
2. 定期检查服务日志(~/.ollama/logs)监控异常请求:
(1) grep "POST /api/pull" ~/.ollama/logs/server.log
(2) grep "POST /api/delete" ~/.ollama/logs/server.log
(3) grep "POST /api/generate" ~/.ollama/logs/server.log

腾讯云安全解决方案
暴露面管理服务(CTEM)、腾讯T-Sec云安全中心均支持该风险检测、腾讯T-Sec云防火墙支持通过端口访问控制配置只允许特定的IP访问或禁止外网访问。


img

2025-02-27