Open WebUI 中文文档
Open WebUI 是一个可扩展、功能丰富且用户友好的本地部署 AI 平台,支持完全离线运行。
支持多种 LLM 后端(如 Ollama 和 OpenAI 兼容 API),内置 RAG 推理引擎,是强大的 AI 部署解决方案。
企业版需求?立即联系我们销售团队[1],获取定制主题与品牌、服务等级协议 (SLA)、长期支持版本 (LTS)等更多增强功能!
更多信息请访问:Open WebUI 官方文档[2]
核心功能
•
快速安装:通过 Docker 或 Kubernetes(kubectl/kustomize/helm)轻松部署,支持:ollama与:cuda镜像标签。
•
🤝Ollama/OpenAI 接口集成:支持连接 OpenAI 兼容接口,同时可使用 Ollama 模型,兼容 LMStudio、GroqCloud、Mistral、OpenRouter 等。
•
细粒度权限与用户分组:管理员可自定义用户角色和权限,提升安全性和灵活性。
•
响应式设计:支持桌面、笔记本与移动设备自适应界面。
•
PWA 支持:移动端提供类原生应用体验,可在本地离线访问。
•
支持 Markdown 与 LaTeX:提供更丰富的文本交互能力。
•
语音与视频通话:支持免手动语音视频聊天,增强交互性。
•
模型构建器:Web UI 上可视化构建 Ollama 模型,支持角色/代理管理、模型导入、聊天界面自定义。
•
Python 函数调用:支持 BYOF(Bring Your Own Function),原生集成纯 Python 函数与 LLM。
•
本地 RAG 支持:集成文档进聊天,使用#加文档名快速检索。
•
RAG 搜索引擎接入:支持 SearXNG、Google PSE、Brave、DuckDuckGo、TavilySearch、Bing 等。
•
网页浏览功能:使用#网址直接加载网页内容并在聊天中引用。
•
图像生成集成:支持本地(AUTOMATIC1111、ComfyUI)与外部(OpenAI DALL·E)图像生成。
•
多模型会话:可同时调用多个模型进行交互,组合输出结果。
•
基于角色的访问控制(RBAC):限制模型拉取/创建权限,仅限管理员操作。
•
多语言支持:支持国际化,欢迎贡献翻译!
•
🧩Pipelines 插件系统:支持注入自定义逻辑、Python 库,示例包括函数调用、使用限制、多语言翻译、有害内容过滤等。
•
持续更新:持续迭代优化,新增功能与修复不断推出。
更多功能请访问:功能总览[3]
安装指南
使用 Python pip 安装
1.
安装:
pip install open-webui
2.
运行:
open-webui serve
访问地址:http://localhost:8080
使用 Docker 快速启动
•
默认配置本地 Ollama:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
•
远程 Ollama 服务:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
•
GPU CUDA 加速:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
•
仅使用 OpenAI API:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
•
集成 Ollama 的镜像(GPU 支持):
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
•
集成 Ollama 的镜像(仅 CPU):
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
访问地址:http://localhost:3000
其他安装方式
支持非 Docker 部署、Docker Compose、Kustomize、Helm 等。请访问:安装文档[4]
故障排查
常见连接失败多为容器内无法访问 Ollama 服务。建议加上--network=host解决。
示例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
使用 Watchtower 自动更新
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
Dev 分支说明
:dev标签包含最新实验功能,可能存在不稳定或未完成特性。
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
离线模式
设置环境变量防止联网下载模型:
export HF_HUB_OFFLINE=1
社区与支持
• Discord 社区:https://discord.gg/openwebui• X(推特):https://x.com/openwebui• 官网:https://openwebui.com• GitHub 项目主页:https://github.com/open-webui/open-webui
References
[1]联系我们销售团队:mailto:sales@openwebui.com
[2]Open WebUI 官方文档:https://docs.openwebui.com
[3]功能总览:https://docs.openwebui.com/features
[4]安装文档:https://docs.openwebui.com/getting-started/
领取专属 10元无门槛券
私享最新 技术干货