本地DeepSeek部署实战:局域网访问与API对外开放技巧
| 原创作者/编辑:凯哥Java | 分类:人工智能学习系列教程
GitHub上deepseek-r1截图
PS:本文是本地化部署DeepSeek系列教程第四篇。本系列共计5篇文章,最终,我们讲实操在Windows操作系统和Mac操作系统实现本地部署DeepSeek-R1大模型。
本系列教程其他文章,还在文章末尾添加。欢迎系统学习
在前面文章中,咱们已经在自己本地部署了deepseek了,那么在同一个局域网中的其他电脑怎么访问?模型提供的API怎么对外访问呢?
通过前面文章介绍,我们已经在本地部署了deepseek,并且通过localhost或者是127.0.0.1可以正常访问到。但是,如果我们想要把这个本地部署的服务给别人使用,就会发现访问不了。同时,如果我们想要把本地的大模型通过API方式对外提供服务,通过IP访问不了。怎么办呢?本文,咱们就来解决这些问题。
在解决这个问题前,咱们先要知道Ollama的环境变了及作用。
环境变量 | 功能说明 | 默认值/示例 |
---|---|---|
OLLAMA_HOST | 设置API服务监听地址与端口,0.0.0.0表示允许所有IP访问 | 0.0.0.0:11434 |
OLLAMA_ORIGINS | 允许跨域请求的域名列表,*为通配符 | * |
OLLAMA_MODELS | 自定义模型存储路径,避免占用系统盘空间 | D:\ollama_models |
OLLAMA_KEEP_ALIVE | 控制模型在内存中的保留时间,减少重复加载开销 | 24h(24小时) |
OLLAMA_NUM_PARALLEL | 并行处理请求数,提升高并发场景下的吞吐量 | 2 |
OLLAMA_DEBUG | 启用调试日志,排查服务异常 | 1(开启) |
OLLAMA_GPU_OVERHEAD | 扩展显存不足时,利用RAM/VRAM混合加载大模型(需手动计算显存值) | 81920000000(80GB) |
默认情况下,Ollama仅监听127.0.0.1:11434
,仅允许本机访问。通过设置OLLAMA_HOST=0.0.0.0:端口号,可将服务绑定到所有网络接口,实现局域网内多设备共享模型资源。
浏览器安全策略会阻止跨域请求,例如使用Open WebUI或LobeChat等前端工具时。配置OLLAMA_ORIGINS=*(允许所有来源)或指定域名列表(如"http://localhost:3000,http://yourdomain.com"
),可解除跨域限制。
开放访问需权衡风险,建议结合防火墙规则限制IP范围,或通过反向代理(如Nginx)添加HTTPS加密层。
OLLAMA_HOST
和OLLAMA_ORIGINS
),保存后需彻底重启Ollama服务(通过任务管理器终止进程后重新启动)。"E:\AI Models\Ollama"
)。步骤1:编辑服务文件:
sudo vim /etc/systemd/system/ollama.service
步骤2:在[Service]
段添加环境变量:
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
步骤3:重载配置并重启服务:
sudo systemctl daemon-reload
sudo systemctl restart ollama
永久配置:编辑.bash_profile
或.zshrc
:
export OLLAMA_HOST=0.0.0.0:11434
export OLLAMA_ORIGINS="*"
临时生效:使用launchctl
命令(重启后失效):
launchctl setenv OLLAMA_HOST 0.0.0.0:11434
launchctl setenv OLLAMA_ORIGINS "*"
http://192.168.1.100:8080
调用API需要修改如下三个环境变量
OLLAMA_HOST=0.0.0.0:8080
OLLAMA_ORIGINS=*
OLLAMA_MODELS=G:\DeepSeek_Models
具体操作,编辑环境变量,然后添加如下:
重启服务并加载模型:
ollama run deepseek-r1:671b
验证API可用性:
curl http://192.168.1.100:8080/api/generate -d '{"model":"deepseek-r1:671b", "prompt":"你好"}'
OLLAMA_KEEP_ALIVE=48h
减少频繁模型加载OLLAMA_NUM_PARALLEL=4
提升并发处理能力913env | grep OLLAMA
确认变量已加载,或尝试launchctl
临时方案8。OLLAMA_ORIGINS
是否包含协议和端口(如http://localhost:3000
)8。netstat -ano | findstr :8080
(Windows)或lsof -i :8080
(Linux/macOS)排查占用端口。通过合理配置环境变量,Ollama可轻松实现从单机工具到团队协作平台的转型。掌握这些技巧后,开发者不仅能高效管理本地大模型,还能将其无缝集成至更复杂的AI应用生态中。
在之前本地部署后,想要通过ip访问ollama-web-ui,发现不能正常访问。其实这里有个小小的坑。那就是ollama-web-ui中把访问Ollama的ip写死了。具体修改地方: 使用编辑器或者是文本编辑找到constants.ts文件,然后如下图修改就可以了。
修改完成之后,重启ollama-webui就可以了。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。