Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Windows本地部署Ollama+qwen本地大语言模型Web交互界面并实现公网访问

Windows本地部署Ollama+qwen本地大语言模型Web交互界面并实现公网访问

作者头像
屿小夏
发布于 2024-04-18 00:49:24
发布于 2024-04-18 00:49:24
13.3K03
代码可运行
举报
文章被收录于专栏:IT杂谈学习IT杂谈学习
运行总次数:3
代码可运行
文章目录

  • 前言
  • 1. 运行Ollama
  • 2. 安装Open WebUI
    • 2.1 在Windows系统安装Docker
    • 2.2 使用Docker部署Open WebUI
  • 3. 安装内网穿透工具
  • 4. 创建固定公网地址

前言

本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装Open WebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。

近些年来随着ChatGPT的兴起,大语言模型 LLM(Large Language Model)也成为了人工智能AI领域的热门话题,很多大厂也都推出了自己的大语言模型,并或多或少的开源了自己的大语言模型,今天就来分享一个最近很火,且对于小白来说比较好上手本地部署的运行本地LLM的工具Ollama。

在本地运行大语言模型有诸多优点:

比如可以保护隐私不会产生费用可以无视网络问题可以尝鲜各种开源模型等等。

Ollama支持当前主要的开源大模型, 比如llama2、千文qwen、mistral等,可以在Windows、LinuxMacOS系统上进行部署。稳定性和便利性都非常不错,下面就来分享一下它在Windows系统上的安装与应用。

1712892863233
1712892863233

1. 运行Ollama

本文安装环境为:Windows10专业版

下载: Ollama下载地址:https://ollama.com/download

在下载页面点击Windows,然后点击下载按钮。

image-20240412112815418
image-20240412112815418

安装: 下载完成后,双击下载的安装程序。

image-20240412113651226
image-20240412113651226

点击Install进行安装。

image-20240412113757729
image-20240412113757729

安装完成没有提示,我们打开一个终端,本文以Windows PowerShell为例,大家也可以使用其他的:

现在Ollama已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,大家也可以使用其他的模型。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama run qwen
image-20240412114551493
image-20240412114551493

可以看到,系统正在下载qwen的模型(并保存在C盘,C:\Users<username>.ollama\models 如果想更改默认路径,可以通过设置OLLAMA_MODELS进行修改,然后重启终端,重启ollama服务。)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
setx OLLAMA_MODELS "D:\ollama_model"
image-20240412115240118
image-20240412115240118

模型下载完成后,我们就可以在终端中输入问题进行使用了:

image-20240412115431766
image-20240412115431766

至此,在Windows本地部署ollama并运行qwen大语言模型就已经完成了。一键搞定,对新手体验大语言模型真的非常友好。

2. 安装Open WebUI

不过,我们现在只能在终端中使用,操作界面可能不像ChatGPT那样美观,如果能使用web页面进行交互,使用体验更好,也能保留之前的聊天记录,翻遍我们翻阅查询。

针对这个情况,我们可以在Windows上部署Open WebUI这个项目来实现类似chatgpt一样的交互界面。

本教程以Open WebUI这个项目为例,它以前的名字就叫 Formerly Ollama WebUI。可以理解为一开始就是专门适配Ollama的WebUI,它的界面也对用惯了chatgpt的小伙伴来说更相似一些。当然,大家也可以选择其他的WebUI,之后有机会也可以分享给大家。

如何在Windows系统安装Open WebUI:

2.1 在Windows系统安装Docker

首先,如果大家之前未安装过Docker,需要执行下面三个步骤进行安装:

第一步:启动Hyper-v

打开控制面板,在程序与功能页面选择启用或Windows功能

55b168adb3b2487ebef5a56f9b5bfe16.png
55b168adb3b2487ebef5a56f9b5bfe16.png

勾选Hyper-V、虚拟机平台、Linux子系统并点击确认

fcc551d53f2a4d8a9261519deaae49ea.png
fcc551d53f2a4d8a9261519deaae49ea.png

然后,重启计算机。

第二步:安装WSL

打开 powershell,以管理员的身份启动命令窗口,输入

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
wsl --update

安装

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
wsl --install
7803831a6fef8563132920692cf5bb5
7803831a6fef8563132920692cf5bb5

然后再次重启电脑。

第三步:访问Docker官网进行下载

点击下载链接:https://docs.docker.com/desktop/install/windows-install/

image-20240412134453950
image-20240412134453950

选择Windows最新版本:

29e8d9fd062d765b10f64c27dd14097
29e8d9fd062d765b10f64c27dd14097

下载完成后,双击安装程序进行安装,如果是第一次安装,安装后会提示重启电脑,重启后点击桌面的Docker Desktop图标:选择先不注册直接登录即可。

image-20240412135009554
image-20240412135009554

打开Docker Desktop后,左下角显示是绿色的running就代表我们成功了:

image-20240412135830591
image-20240412135830591

视频安装教程:

【Docker教程】如何在Windows系统安装Docker

2.2 使用Docker部署Open WebUI

在Open WebUI的github页面 https://github.com/open-webui/open-webui 可以看到,如果你的Ollama和Open WebUI在同一台主机,那使用下面显示的这一行命令就可以在本地快速进行部署:

image-20240412140749937
image-20240412140749937
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

现在我们打开终端,比如powershell,然后输入docker,回车

image-20240412143329625
image-20240412143329625

可以看到这个命令成功运行,说明docker安装成功。

然后将上边在docker中部署Open WebUI的命令复制后粘贴到终端中,回车。

image-20240412143603992
image-20240412143603992

然后等待安装完毕即可:如下图所示

image-20240412144132799
image-20240412144132799

安装完成后,在Docker Desktop中可以看到Open WebUI的web界面地址为:https://localhost:3000

image-20240412144401182
image-20240412144401182

点击后,会在浏览器打开登录界面:

image-20240412144744192
image-20240412144744192

点击sign up注册,账号,邮箱,密码记好,下次登录时需要用到邮箱和密码登录:

image-20240412144927140
image-20240412144927140

然后点击create account创建账号即可:然后就能在浏览器中使用类似chatgpt界面的Open WebUI了!

image-20240412145046113
image-20240412145046113

点击右上角的设置,可以修改当前界面的语言为简体中文:然后点击保存即可。

image-20240412145306289
image-20240412145306289
image-20240412145337352
image-20240412145337352

点击上方选择一个模型旁边的加号+可以增加大模型,点击下拉按钮可以选择当前使用哪一个已安装的模型,接下来就可以愉快的跟ai聊天了!

image-20240412145604350
image-20240412145604350

3. 安装内网穿透工具

至此,我们已经成功完成在本地Windows系统使用Docker部署Open WebUI与Ollama大模型工具进行交互了!但如果想实现出门在外,也能随时随地使用Ollama Open WebUI,那就需要借助cpolar内网穿透工具来实现公网访问了!接下来介绍一下如何安装cpolar内网穿透并实现公网访问!

下面是安装cpolar步骤:

cpolar官网地址: https://www.cpolar.com

点击进入cpolar官网,点击免费使用注册一个账号,并下载最新版本的cpolar

img
img

登录成功后,点击下载cpolar到本地并安装(一路默认安装即可)本教程选择下载Windows版本。

image-20240319175308664
image-20240319175308664

cpolar安装成功后,在浏览器上访问http://localhost:9200,使用cpolar账号登录,登录后即可看到cpolar web 配置界面,结下来在web 管理界面配置即可。

img
img

接下来配置一下 Open WebUI 的公网地址,

登录后,点击左侧仪表盘的隧道管理——创建隧道,

创建一个 ollama1 的公网http地址隧道:

  • 隧道名称:ollama1(可自定义命名,注意不要与已有的隧道名称重复)
  • 协议:选择http
  • 本地地址:3000 (本地访问的地址)
  • 域名类型:免费选择随机域名
  • 地区:选择China Top
db922938915f169100c3099795edd0a
db922938915f169100c3099795edd0a

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https:

image-20240412152551655
image-20240412152551655

使用上面的任意一个公网地址,在手机或任意设备的浏览器进行登录访问,即可成功看到 Open WebUI 界面,这样一个公网地址且可以远程访问就创建好了,使用了cpolar的公网域名,无需自己购买云服务器,即可到公网访问 Open WebUI 了!

image-20240412152651947
image-20240412152651947

小结

如果我们需要长期异地远程访问Open WebUI,由于刚才创建的是随机的地址,24小时会发生变化。另外它的网址是由随机字符生成,不容易记忆。如果想把域名变成固定的二级子域名,并且不想每次都重新创建隧道来访问Open WebUI,我们可以选择创建一个固定的公网地址来解决这个问题。

4. 创建固定公网地址

我们接下来为其配置固定的HTTP端口地址,该地址不会变化,方便分享给别人长期查看你部署的项目,而无需每天重复修改服务器地址。

配置固定http端口地址需要将cpolar升级到专业版套餐或以上。

登录cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留,保留成功后复制保留的二级子域名名称

image-20240412152906479
image-20240412152906479

保留成功后复制保留成功的二级子域名的名称:myollama,大家也可以设置自己喜欢的名称。

image-20240412152954731
image-20240412152954731

返回登录Cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:ollama1,点击右侧的编辑:

image-20240412153114908
image-20240412153114908

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名:myollama

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20240412153213518
image-20240412153213518

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:

image-20240412153253106
image-20240412153253106

最后,我们使用固定的公网https地址访问,可以看到访问成功,这样一个固定且永久不变的公网地址就设置好了,可以随时随地在公网环境异地访问本地部署的 Open WebUI 了!

image-20240412153508464
image-20240412153508464

以上就是如何在Windows系统本地安装Ollama大模型工具并使用docker部署Open WebUI,结合cpolar内网穿透工具实现公网访问本地LLM,并配置固定不变的二级子域名公网地址实现远程访问的全部流程,感谢您的观看,有任何问题欢迎留言交流。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-04-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
群晖NAS使用Docker部署大语言模型Llama 2结合内网穿透实现公网访问本地GPT聊天服务
Llama 2是一款开源的大语言模型,其中训练的数据目前已经达到7B级别,在上下文长度为4K下的单轮与多轮对话中表现出色,部署运行Llama 2同时需要借助一个框架Ollama.
屿小夏
2024/04/10
2.4K3
群晖NAS使用Docker部署大语言模型Llama 2结合内网穿透实现公网访问本地GPT聊天服务
使用MaxKB添加本地部署的Ollama大语言模型搭建智能聊天系统
cpolar是一种安全的内网穿透服务。它能够将内网下的本地服务器通过安全隧道暴露至公网,使得公网用户可以正常访问内网服务。cpolar支持多种操作系统,包括Windows、Mac和Linux,同时支持多种协议,如TCP、UDP和HTTP等,这使得它适用于各种不同的开发和生产环境,并能够灵活地与内网设备进行通信。
FGGIT
2024/10/15
8470
使用MaxKB添加本地部署的Ollama大语言模型搭建智能聊天系统
本地部署AI应用开发平台Dify并配置Ollama大语言模型实现公网远程访问
本篇文章介绍如何将Dify本地私有化部署,并且接入Ollama部署本地模型,实现在本地环境中部署和管理LLM,再结合cpolar内网穿透实现公网远程访问Dify。
aosei
2024/09/07
9380
本地部署AI应用开发平台Dify并配置Ollama大语言模型实现公网远程访问
自建类ChatGPT服务:本地化部署与远程访问教程
本文介绍了如何在Windows 10系统上,通过使用Text generation web UI和cpolar内网穿透工具,搭建和远程访问自建类ChatGPT服务。文章详细介绍了安装Text generation web UI和语言模型、安装cpolar内网穿透工具、创建公网地址和固定公网地址的步骤,帮助读者快速搭建并远程访问自定义的大型语言模型。
猫头虎
2024/04/08
6870
自建类ChatGPT服务:本地化部署与远程访问教程
Windows环境安装Ollama接入llama2模型并通过MaxKB与AI远程对话
在本文中,我们将详细介绍如何在Windows环境中本地运行大语言模型框架Ollama,并下载大语言模型LLaMA2。接着,我们会使用MaxKB将这个本地运行的大语言模型导入到知识库中,创建一个属于自己的智能问答应用。整个过程无需公网IP或域名,只需借助cpolar内网穿透工具即可实现!
命运之光
2025/01/14
5240
Windows环境安装Ollama接入llama2模型并通过MaxKB与AI远程对话
如何在本地服务器创建Llama2大语言模型聊天服务并发布公网实现远程访问
本文主要分享如何在群晖NAS本地部署并运行一个基于大语言模型Llama 2的个人本地聊天机器人并结合内网穿透工具发布到公网远程访问。本地部署对设备配置要求高一些,如果想要拥有比较好的体验,可以使用高配置的服务器设备.
YY的秘密代码小屋
2024/06/22
1950
如何在本地服务器创建Llama2大语言模型聊天服务并发布公网实现远程访问
Code Llama大语言模型的本地部署与使用Text Generation Web UI远程访问
本文将探讨如何在本地环境中部署Text Generation Web UI,并搭建Code Llama大语言模型,同时结合cpolar内网穿透技术,实现对Code Llama的远程访问。
E绵绵
2024/11/15
1240
Code Llama大语言模型的本地部署与使用Text Generation Web UI远程访问
Windows系统安装LobeChat添加Llama3.1大语言模型结合内网穿透远程交互
本篇文章主要介绍如何在本地安装Llama3.1,以及在本地部署LobeChat可视化UI界面,并且结合Cpolar内网穿透,实现公网远程使用Llama3.1。
FGGIT
2024/10/15
1820
Windows系统安装LobeChat添加Llama3.1大语言模型结合内网穿透远程交互
快速启动远程团队协作:Windows本地部署Focalboard并实现公网访问
本篇文章将带你快速了解如何在Windows系统本地部署Focalboard项目管理工具,并结合Cpolar内网穿透实现公网访问,助力远程团队高效协作,提高工作效率!
命运之光
2024/11/26
1590
快速启动远程团队协作:Windows本地部署Focalboard并实现公网访问
AI玩家看过来!如何远程在线运行Llama3.1并实现可视化界面交互
今天和大家分享一下如何在本地安装Llama3.1大模型,并通过LobeChat可视化UI界面实现公网远程访问。这款强大的开源语言模型不仅支持八种语言,还具备通用知识、数学计算、多语言翻译和工具使用能力。
大海里的番茄
2024/12/24
1520
AI玩家看过来!如何远程在线运行Llama3.1并实现可视化界面交互
本地部署文字生成音乐AI工具MusicGPT并使用浏览器远程访问使用
今天和大家分享一下在Windows系统电脑上本地快速部署一个文字生成音乐的AI创作服务MusicGPT,并结合cpolar内网穿透工具实现随时随地远程访问使用进行AI音乐的创作与体验。
aosei
2024/09/28
1740
本地部署文字生成音乐AI工具MusicGPT并使用浏览器远程访问使用
Windows系统搭建Whisper Web语言转文本服务并发布公网远程使用
OpenAI开源的 Whisper 语音转文本模型效果都说还不错,今天就给大家推荐 GitHub 上一个开源项目 Whisper Web,允许你可直接在浏览器中运行使用 Whisper。
FGGIT
2024/10/15
1910
Windows系统搭建Whisper Web语言转文本服务并发布公网远程使用
Dify开源大语言模型(LLM) 应用开发平台如何使用Docker部署与远程访问
Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。
屿小夏
2024/04/12
3.8K0
Dify开源大语言模型(LLM) 应用开发平台如何使用Docker部署与远程访问
轻松上手!五分钟学会利用llamafile和cpolar实现远程访问本地大模型
无论是工作还是生活,强大的 AI 工具已经成为了我们的得力助手。但你有没有遇到过这样的情况:当你需要在不同的设备上使用这些大型语言模型时,却发现网络环境不稳定或者配置过程繁琐无比?这不仅影响了你的工作效率,还可能让你的心情大打折扣。
YY的秘密代码小屋
2025/01/17
880
轻松上手!五分钟学会利用llamafile和cpolar实现远程访问本地大模型
本地部署开源GPT4free结合Cpolar内网穿透实现公网访问本地AI聊天服务
本篇文章介绍如何在本地部署开源GPT4free,并且结合Cpolar内网穿透工具实现公网远程访问本地AI聊天服务。
ImAileen
2024/04/20
5530
本地部署开源GPT4free结合Cpolar内网穿透实现公网访问本地AI聊天服务
如何在Windows系统本地部署Stable Diffusion Web UI与远程使用
本篇文章介绍如何在Windows本地部署Stable Diffusion Web UI,并且结合cpolar内网穿透实现公网环境远程访问。
ImAileen
2024/07/28
7990
如何在Windows系统本地部署Stable Diffusion Web UI与远程使用
五分钟在Windows电脑部署MusicGPT进行在线AI音乐创作
本文主要介绍如何在你的 Windows 电脑上快速部署一款文字生成音乐的 AI 创作服务——MusicGPT,并且通过 cpolar 内网穿透工具实现随时随地远程访问。这样一来,无论你身处何地,都可以轻松进行音乐创作!
命运之光
2024/12/20
1970
五分钟在Windows电脑部署MusicGPT进行在线AI音乐创作
如何在Windows部署Alist全平台网盘神器并结合内网穿透实现公网访问本地网盘
AList 是一个支持多种存储,支持网页浏览和 WebDAV的文件列表程序,可以实现多种网盘挂载为硬盘,并可以挂载不限量的网络资源。或者说是一个网盘聚合器,可以将你的网盘挂载到一起,方便统一管理,简单的说 通过本地浏览器管理多种网盘的程序,重点是免费!
aosei
2024/03/22
2.9K0
如何在Windows部署Alist全平台网盘神器并结合内网穿透实现公网访问本地网盘
从零开始搭建你的专属AI平台Dify与远程访问轻松管理调用本地大模型
大家好!今天我们要聊聊如何在Linux Ubuntu系统上使用Docker快速部署大语言模型应用开发平台Dify,并借助神奇的内网穿透工具cpolar,在没有公网IP或云服务器的情况下也能让别人轻松访问你的本地Dify服务。是不是很酷?
FGGIT
2025/04/04
5190
从零开始搭建你的专属AI平台Dify与远程访问轻松管理调用本地大模型
如何使用任意浏览器在公网环境远程访问本地部署的Nightingale管理界面
本文主要介绍如何在本地Linux系统部署 Nightingale 夜莺监控并结合cpolar内网穿透工具实现远程也可以访问,提高运维效率。解决本地部署后无法远程访问的难题。
YIN_尹
2024/09/10
1310
如何使用任意浏览器在公网环境远程访问本地部署的Nightingale管理界面
推荐阅读
群晖NAS使用Docker部署大语言模型Llama 2结合内网穿透实现公网访问本地GPT聊天服务
2.4K3
使用MaxKB添加本地部署的Ollama大语言模型搭建智能聊天系统
8470
本地部署AI应用开发平台Dify并配置Ollama大语言模型实现公网远程访问
9380
自建类ChatGPT服务:本地化部署与远程访问教程
6870
Windows环境安装Ollama接入llama2模型并通过MaxKB与AI远程对话
5240
如何在本地服务器创建Llama2大语言模型聊天服务并发布公网实现远程访问
1950
Code Llama大语言模型的本地部署与使用Text Generation Web UI远程访问
1240
Windows系统安装LobeChat添加Llama3.1大语言模型结合内网穿透远程交互
1820
快速启动远程团队协作:Windows本地部署Focalboard并实现公网访问
1590
AI玩家看过来!如何远程在线运行Llama3.1并实现可视化界面交互
1520
本地部署文字生成音乐AI工具MusicGPT并使用浏览器远程访问使用
1740
Windows系统搭建Whisper Web语言转文本服务并发布公网远程使用
1910
Dify开源大语言模型(LLM) 应用开发平台如何使用Docker部署与远程访问
3.8K0
轻松上手!五分钟学会利用llamafile和cpolar实现远程访问本地大模型
880
本地部署开源GPT4free结合Cpolar内网穿透实现公网访问本地AI聊天服务
5530
如何在Windows系统本地部署Stable Diffusion Web UI与远程使用
7990
五分钟在Windows电脑部署MusicGPT进行在线AI音乐创作
1970
如何在Windows部署Alist全平台网盘神器并结合内网穿透实现公网访问本地网盘
2.9K0
从零开始搭建你的专属AI平台Dify与远程访问轻松管理调用本地大模型
5190
如何使用任意浏览器在公网环境远程访问本地部署的Nightingale管理界面
1310
相关推荐
群晖NAS使用Docker部署大语言模型Llama 2结合内网穿透实现公网访问本地GPT聊天服务
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验