前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Gaia - 一个使用Rust实现的Local LLM服务解决方案

Gaia - 一个使用Rust实现的Local LLM服务解决方案

作者头像
MikeLoveRust
发布2024-05-29 13:01:18
1850
发布2024-05-29 13:01:18
举报

最近发现一个不错的项目,Gaia (https://github.com/GaiaNet-AI/gaianet-node),它的功能是:

  • 在本地运行下载的大模型LLM(通过wasmedge实现)
  • 可以选择各种开源的LLM
  • 实现了RAG,可自定义训练自己的知识库
  • 实现了一种类似去中心化的模型,在本地启动LLM Chat服务,可为其它人提供LLM Chat服务
  • 提供兼容 OpenAI 的接口

Localized LLM

在本地运行大模型现在是一个AI的热门方向,现在这块儿开源的比较火的项目有 Ollama 等。但是目前使用Rust实现的产品并不多,Gaia 算是一个选择,它采用的方案是 WasmEdge 提供的基于 wasm 的 LLM 运行方案。WasmEdge 是CNCF孵化项目,也是目前wasm生态最活的wasm runtime 之一,实现质量很高。

一般来说,这种在个人电脑上运行的LLM方案,都提供多种LLM供选择。

RAG

除了基本的LLM,Gaia集成了RAG,使用的是Rust实现的Qdrant。有了RAG,就可以方便地灌入和训练自己的知识库了。能够为各种场景定制不同的ChatBot。

Client as Server 模式

Gaia 的一个创新点是,它提供了一种客户端即服务器的模式。你在本地启动Chat Daemon服务后,你会得到一个类似于 https://0xf63939431ee11267f4855a166e11cc44d24960c0.gaianet.xyz 这样的访问地址,这是一个chat网页,比如长这个样:https://rust-learning.gaianet.network/chatbot-ui/index.html。你自己访问这个服务也是通过这个Web UI来聊天。

有意思的是,同样的地址,你发给你的朋友,他们也能用这个地址来访问你的电脑上提供的这个LLM Chat服务。据他们的说法,未来可以提供付费的方式。也就是说,如果你手上有个4090,你把Gaia跑起来给别人提供服务,是可以赚钱的!

具体可以参考他们的文档:https://docs.gaianet.ai/intro

Rust 专属机器人

我之前想过做一个Rust专属机器人,现在Gaia已经帮我们做好了。它把 Rust Book 灌了进去,大家可以玩一玩。访问地址是:https://rust-learning.gaianet.network/chatbot-ui/index.html

我在本地已经尝试了整个流程,从下载到可以chat,只花了几分钟时间,大家感兴趣的都可以尝试一下。看起来这是一个很promising的项目。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-05-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Rust语言学习交流 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Localized LLM
  • RAG
  • Client as Server 模式
  • Rust 专属机器人
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档