前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >从零开始:腾讯云轻量应用服务器上部署MaxKB项目(基于LLM大语言模型的知识库问答系统)

从零开始:腾讯云轻量应用服务器上部署MaxKB项目(基于LLM大语言模型的知识库问答系统)

原创
作者头像
快乐的小白
修改2024-06-03 14:17:00
6230
修改2024-06-03 14:17:00
举报
文章被收录于专栏:开源项目部署开源项目部署

使用腾讯云轻量应用服务器部署和使用MaxKB项目

前言

一,MaxKB介绍

MaxKB是基于LLM大语言模型的知识库问答系统,旨在成为企业的最强大脑。它支持开箱即用,无缝嵌入到第三方业务系统,并提供多模型支持,包括主流大模型和本地私有大模型,为用户提供智能问答交互体验和灵活性。

二,效果展示

三,部署教程

1.第一步先准备一台服务器,配置尽量高一点,不过也可以低配例如1H1G也行,用低配的服务器的话就得接入第三方的模型了,高配的话就可以直接部署一个大模型作为使用。本次项目我还是依然推荐极具现价比的轻量云服务器,而且本次618活动已经开展了,价格比以往更低。高配可以购买8H16G,低配就买2H2G就行。

2.购买了服务器后,尽量选择Linux环境,我一般用centos,然后这块选择CentOS 7.6就行。

3.购买完成后,我们进入轻量云的控制台,一般等待个3到5分钟后就可以看到服务器部署完成。

控制台地址:https://console.cloud.tencent.com/lighthouse

4.进入控制台后,找到我们购买的服务器,然后点击登录

5.点击登录后,我们就进入到了OrcaTerm页面,这里输入站内信里的密码,如果不知道密码的话,可以在控制台点击登录旁边的三个点,进行重置密码。

6.密码输入成功后我们就成功进入了服务器,然后复制下面的代码到命令台然后回车运行

代码语言:txt
复制
curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sudo bash quick_start.sh

7.运行完成后,就记得到了面板的登录后台和账号密码

8.进入后台后输入账号密码,然后点击左边栏得应用商店,然后选择ai大模型分类,点击maxkb的安装

9.如果不改变端口的话,默认安装即可

10.地址是你的服务器ip+8080端口号。也就是ip:8080(一般来说8080端口是没有开启的,所以你得到轻量云的控制台去设置防火墙的端口)

最后入门教程地址

代码语言:txt
复制
https://github.com/1Panel-dev/MaxKB/wiki/2-%E5%BF%AB%E9%80%9F%E5%85%A5%E9%97%A8

四,注意事项

1. 防火墙一定要开启对应端口,例如8080端口。

2.项目虽然是开源项目,但是如果商业用途还是要联系作者是否能商用。

五,结语

MaxKB,作为基于LLM大语言模型的知识库问答系统,提供了无与伦比的便利和智能化体验。通过其多模型支持,你可以轻松接入各种主流大模型,包括本地私有大模型(如 Llama 2)、OpenAI、通义千问、Kimi、Azure OpenAI 和百度千帆大模型等,为你的系统赋予更强大的智能能力。开箱即用的特性让您可以快速上传文档、自动爬取在线文档,享受智能问答交互体验。而MaxKB的无缝嵌入能力更是让您能够零编码快速将其整合到第三方业务系统中,提供更便捷、高效的解决方案。可以给你的工作带来更多便利与效率。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
    • 一,MaxKB介绍
      • 二,效果展示
        • 三,部署教程
          • 四,注意事项
            • 五,结语
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档