首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >从配置到实战:LocalAI+cpolar实现本地AI训练与跨平台访问全过程

从配置到实战:LocalAI+cpolar实现本地AI训练与跨平台访问全过程

作者头像
用户8589624
发布2025-11-16 08:53:58
发布2025-11-16 08:53:58
1710
举报
文章被收录于专栏:nginxnginx

前言

技术爱好者们注意了!今天为您带来一套颠覆性的本地化部署方案——基于LocalAI的智能计算架构。这个开源项目能将普通PC升级为具备强大AI运算能力的终端设备,实现高效模型推理与多样化内容创作。其创新之处在于突破硬件限制,即使是基础显卡配置的机器也能稳定运行。当我们将LocalAI与网络穿透工具cpolar深度结合后,无论身处办公室还是移动场景,都能实现安全的远程项目访问。这种技术组合不仅强化了数据防护体系,更打破了传统AI开发的物理边界。现在就让我们共同探索这套低成本、高效率的本地智能部署方案!

image-20250107161115378
image-20250107161115378

【视频教程】

支持CPU推理运行的开源AI神器LocalAI本地安装与远程使用教程

1. Docker部署

本例使用Ubuntu 22.04进行演示,使用Docker进行部署,如果没有安装Docker,可以查看这篇教程进行安装:《Docker安装教程——Linux、Windows、MacOS》

安装好Docker后,打开终端执行这行命令启动容器即可:

代码语言:javascript
复制
sudo docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-cpu

这里使用的镜像是仅使用CPU来运行的镜像,如果大家有Nvidia显卡的好GPU,也可以使用下方命令拉取支持N卡的镜像来运行容器:

代码语言:javascript
复制
sudo docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12

更多项目配置与使用详情大家也可以访问作者的github主页进行查看:https://github.com/mudler/LocalAI

2. 简单使用演示

容器启动后,我们在Ubuntu中使用浏览器访问 http://localhost:8080 即可打开LocalAI的Web UI页面:

image-20250107150311522
image-20250107150311522

能看到页面中央提示我们现在还没有添加大模型,我们可以点击Gallery,在跳转页面选择一个大模型:

image-20250107151137003
image-20250107151137003

可以看到在这个界面中有600多个大模型,并且可以根据用途标签(文字转语音、图片生成、文章生成等等)进行筛选或者在下方输入框搜索指定的模型:

1736234546248
1736234546248

我这里以添加llama-3.2-1b模型来进行演示:点击install按钮安装等待完成即可

image-20250107151337786
image-20250107151337786
image-20250107151539442
image-20250107151539442
image-20250107151705300
image-20250107151705300

安装完成后,点击页面上方导航条中的HOME回到主页即可发现刚刚添加的llama-3.2模型:

image-20250107153151174
image-20250107153151174

想要使用这个AI大模型,点击上方导航中的chat即可与它聊天了:

image-20250107153311605
image-20250107153311605

点击右侧的模型选择,下拉框中会显示你已经安装的大模型:

image-20250107153543150
image-20250107153543150

目前我只安装了这一个,如果想继续安装其他大模型,可以点击页面上方导航栏中的Models进行选择:(跳转的就是首次挑选模型安装的那个页面)

image-20250107153714760
image-20250107153714760

3. 安装cpolar内网穿透

不过我们目前只能在本地局域网内访问刚刚部署的LocalAI来使用AI大模型聊天,如果想不在同一局域网内时,也能在外部网络环境使用手机、平板、电脑等设备远程访问与使用它,应该怎么办呢?我们可以使用cpolar内网穿透工具来实现远程访问的需求。无需公网IP,也不用设置路由器那么麻烦。

下面是安装cpolar步骤:

Cpolar官网地址: https://www.cpolar.com

使用一键脚本安装命令:

代码语言:javascript
复制
sudo curl https://get.cpolar.sh | sh
img
img

安装完成后,执行下方命令查看cpolar服务状态:(如图所示即为正常启动)

代码语言:javascript
复制
sudo systemctl status cpolar
img
img

Cpolar安装和成功启动服务后,在浏览器上输入ubuntu主机IP加9200端口即:【http://localhost:9200】访问Cpolar管理界面,使用Cpolar官网注册的账号登录,登录后即可看到cpolar web 配置界面,接下来在web 界面配置即可:

image-20240801133735424
image-20240801133735424

4. 配置公网地址

登录cpolar web UI管理界面后,点击左侧仪表盘的隧道管理——创建隧道:

  • 隧道名称:可自定义,本例使用了: localai ,注意不要与已有的隧道名称重复
  • 协议:http
  • 本地地址:8080
  • 域名类型:随机域名
  • 地区:选择China Top

点击创建:

image-20250107155748353
image-20250107155748353

创建成功后,打开左侧在线隧道列表,可以看到刚刚通过创建隧道生成了两个公网地址,接下来就可以在其他电脑或者移动端设备(异地)上,使用任意一个地址在浏览器中访问即可。

image-20250107160010472
image-20250107160010472

如图所示,现在就已经成功实现使用公网地址异地远程访问本地部署的LocalAI来用AI大模型聊天啦!

image-20250107160149458
image-20250107160149458

小结

为了方便演示,我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在24小时内会发生随机变化,更适合于临时使用。

如果有长期使用LocalAI,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来配置公网地址。

5. 配置固定公网地址

由于以上使用cpolar所创建的隧道使用的是随机公网地址,24小时内会随机变化,不利于长期远程访问。因此我们可以为其配置二级子域名,该地址为固定地址,不会随机变化。

点击左侧的预留,选择保留二级子域名,地区选择china top,然后设置一个二级子域名名称,我这里演示使用的是mylocal,大家可以自定义。填写备注信息,点击保留。

image-20250107160432921
image-20250107160432921

保留成功后复制保留的二级子域名地址:

image-20250107160503136
image-20250107160503136

登录cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道localai,点击右侧的编辑

image-20250107160552136
image-20250107160552136

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名
  • 地区: China Top

点击更新

image-20250107160647570
image-20250107160647570

更新完成后,打开在线隧道列表,此时可以看到随机的公网地址已经发生变化,地址名称也变成了保留和固定的二级子域名名称。

image-20250107160726385
image-20250107160726385

最后,我们使用固定的公网地址在任意设备的浏览器中访问,可以看到成功访问本地部署的LocalAI Web UI页面,这样一个永久不会变化的二级子域名公网网址即设置好了。

image-20250107160928361
image-20250107160928361

这项技术组合是否已点燃您的创新思维?LocalAI与cpolar的系统集成不仅突破硬件性能的桎梏,更重构了计算资源的使用模式。试想在移动场景中,通过智能设备即时连接云端模型——这种颠覆性体验正等待您去探索。

我们期待您分享实践中的创新发现,无论是部署优化的独到见解,还是跨平台应用的突破方案,都能在技术社区形成价值共鸣。点击获取最新技术洞察,携手打造开放共享的本地化AI生态。下期将解析容器化技术对系统稳定性的增强方案,精彩内容敬请期待!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-05-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 1. Docker部署
  • 2. 简单使用演示
  • 3. 安装cpolar内网穿透
  • 4. 配置公网地址
  • 5. 配置固定公网地址
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档