前面部署了vLLM版本以后,访问它比较麻烦。如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。
OpenWeb UI 是一个功能丰富且用户友好的自托管 Web 用户界面,主要用于管理和操作各种本地和云端的人工智能模型。它支持多种大型语言模型(LLM)运行程序,包括 Ollama 和兼容 OpenAI 的 API,旨在完全离线操作。以下是关于 OpenWeb UI 的详细介绍:
1.创建conda 虚拟环境
conda create --name openwebui python=3.12.9
2.安装Open WebUI
pip install open-webui -i https://mirrors.aliyun.com/pypi/simple/
3.启动Open WebUI
# 禁用OLLAMA API
export ENABLE_OLLAMA_API=False
# 设置OpenAI API的基础URL为本地服务器
export OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1
# 设置默认模型路径
export DEFAULT_MODELS="/root/deepseekr1_1.5b/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B"
# 启动Open WebUI
open-webui serve
4.配置Open WebUI
5.开始提问