前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >3分钟快速构建大语言模型AI知识库

3分钟快速构建大语言模型AI知识库

作者头像
Tinywan
发布2023-11-27 14:46:06
1.4K1
发布2023-11-27 14:46:06
举报
文章被收录于专栏:开源技术小栈

FastGPT

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

知识库核心流程图

图片来源:https://doc.fastgpt.in

私有化部署

这里使用 Docker Compose 快速进行 FastGPT 私有化部署

1、安装 Docker

代码语言:javascript
复制
# 安装 Docker
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
systemctl enable --now docker
# 安装 docker-compose
curl -L https://github.com/docker/compose/releases/download/2.20.3/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose
# 验证安装
docker -v
docker-compose -v

如果已经安装,直接跳过就是

2、容器编排

创建一个本地目录并且进入该目录
代码语言:javascript
复制
mkdir tinywan-fastgpt
cd tinywan-fastgpt

以上创建目录路径为/d/Tinywan/GPT/tinywan-fastgpt

docker-compose.yml 配置文件
代码语言:javascript
复制
version: '3.3'
services:
  pg:
    image: registry.cn-hangzhou.aliyuncs.com/fastgpt/pgvector:v0.5.0 # 阿里云
    container_name: pg
    restart: always
    ports: # 生产环境建议不要暴露
      - 5432:5432
    networks:
      - fastgpt
    environment:
      # 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果
      - POSTGRES_USER=username
      - POSTGRES_PASSWORD=password
      - POSTGRES_DB=postgres
    volumes:
      - ./pg/data:/var/lib/postgresql/data
  mongo:
    image: mongo:5.0.18
    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/mongo:5.0.18 # 阿里云
    container_name: mongo
    restart: always
    ports: # 生产环境建议不要暴露
      - 27017:27017
    networks:
      - fastgpt
    environment:
      # 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果
      - MONGO_INITDB_ROOT_USERNAME=username
      - MONGO_INITDB_ROOT_PASSWORD=password
    volumes:
      - ./mongo/data:/data/db
  fastgpt:
    container_name: fastgpt
    image: registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:latest # 阿里云
    ports:
      - 3000:3000
    networks:
      - fastgpt
    depends_on:
      - mongo
      - pg
    restart: always
    environment:
      # root 密码,用户名为: root
      - DEFAULT_ROOT_PSW=123465
      # 中转地址,如果是用官方号,不需要管
      - OPENAI_BASE_URL=https://api.openai.com/v1
      - CHAT_API_KEY=sb-xxx
      - DB_MAX_LINK=5 # database max link
      - TOKEN_KEY=any
      - ROOT_KEY=root_key
      - FILE_TOKEN_KEY=filetoken
      # mongo 配置,不需要改. 如果连不上,可能需要去掉 ?authSource=admin
      - MONGODB_URI=mongodb://username:password@mongo:27017/fastgpt?authSource=admin
      # pg配置. 不需要改
      - PG_URL=postgresql://username:password@pg:5432/postgres
    volumes:
      - ./config.json:/app/data/config.json
networks:
  fastgpt:

注:请填写CHAT_API_KEY对应的值。

config.json 配置文件
代码语言:javascript
复制
{
    "SystemParams": {
        "pluginBaseUrl": "",
        "vectorMaxProcess": 15,
        "qaMaxProcess": 15,
        "pgHNSWEfSearch": 100
    },
    "ChatModels": [
        {
            "model": "gpt-3.5-turbo-1106",
            "name": "GPT35-1106",
            "price": 0,
            "maxContext": 16000,
            "maxResponse": 4000,
            "quoteMaxToken": 2000,
            "maxTemperature": 1.2,
            "censor": false,
            "vision": false,
            "defaultSystemChatPrompt": ""
        },
        {
            "model": "gpt-3.5-turbo-16k",
            "name": "GPT35-16k",
            "maxContext": 16000,
            "maxResponse": 16000,
            "price": 0,
            "quoteMaxToken": 8000,
            "maxTemperature": 1.2,
            "censor": false,
            "vision": false,
            "defaultSystemChatPrompt": ""
        },
        {
            "model": "gpt-4",
            "name": "GPT4-8k",
            "maxContext": 8000,
            "maxResponse": 8000,
            "price": 0,
            "quoteMaxToken": 4000,
            "maxTemperature": 1.2,
            "censor": false,
            "vision": false,
            "defaultSystemChatPrompt": ""
        },
        {
            "model": "gpt-4-vision-preview",
            "name": "GPT4-Vision",
            "maxContext": 128000,
            "maxResponse": 4000,
            "price": 0,
            "quoteMaxToken": 100000,
            "maxTemperature": 1.2,
            "censor": false,
            "vision": true,
            "defaultSystemChatPrompt": ""
        }
    ],
    "QAModels": [
        {
            "model": "gpt-3.5-turbo-16k",
            "name": "GPT35-16k",
            "maxContext": 16000,
            "maxResponse": 16000,
            "price": 0
        }
    ],
    "CQModels": [
        {
            "model": "gpt-3.5-turbo-1106",
            "name": "GPT35-1106",
            "maxContext": 16000,
            "maxResponse": 4000,
            "price": 0,
            "functionCall": true,
            "functionPrompt": ""
        },
        {
            "model": "gpt-4",
            "name": "GPT4-8k",
            "maxContext": 8000,
            "maxResponse": 8000,
            "price": 0,
            "functionCall": true,
            "functionPrompt": ""
        }
    ],
    "ExtractModels": [
        {
            "model": "gpt-3.5-turbo-1106",
            "name": "GPT35-1106",
            "maxContext": 16000,
            "maxResponse": 4000,
            "price": 0,
            "functionCall": true,
            "functionPrompt": ""
        }
    ],
    "QGModels": [
        {
            "model": "gpt-3.5-turbo-1106",
            "name": "GPT35-1106",
            "maxContext": 1600,
            "maxResponse": 4000,
            "price": 0
        }
    ],
    "VectorModels": [
        {
            "model": "text-embedding-ada-002",
            "name": "Embedding-2",
            "price": 0.2,
            "defaultToken": 700,
            "maxToken": 3000
        }
    ],
    "AudioSpeechModels": [
        {
            "model": "tts-1",
            "name": "OpenAI TTS1",
            "price": 0,
            "voices": [
                {
                    "label": "Alloy",
                    "value": "alloy",
                    "bufferId": "openai-Alloy"
                },
                {
                    "label": "Echo",
                    "value": "echo",
                    "bufferId": "openai-Echo"
                },
                {
                    "label": "Fable",
                    "value": "fable",
                    "bufferId": "openai-Fable"
                },
                {
                    "label": "Onyx",
                    "value": "onyx",
                    "bufferId": "openai-Onyx"
                },
                {
                    "label": "Nova",
                    "value": "nova",
                    "bufferId": "openai-Nova"
                },
                {
                    "label": "Shimmer",
                    "value": "shimmer",
                    "bufferId": "openai-Shimmer"
                }
            ]
        }
    ],
    "WhisperModel": {
        "model": "whisper-1",
        "name": "Whisper1",
        "price": 0
    }
}

3、启动容器

通过命令docker-compose pull 获取更新版本的镜像

通过命令docker-compose up -d 启动容器

查看容器启动情况

4、访问 FastGPT

目前可以通过 ip:3000 直接访问。这里是本地部署,所以直接通过 http://127.0.0.1:3000 直接访问即可。

部署成功访问页面如下所示

登录用户名为 root,密码为docker-compose.yml环境变量里设置的 DEFAULT_ROOT_PSW

登录成功访问页面如下所示

构建知识库

创建知识库

成功登录后,新建一个知识库,取名开源技术小栈

通过文件将个人经历导入到知识库中

【新建/导入】【文件导入】

确认后就开始将当前数据转化为向量数据

选择文件导入时,可以选择直接分段方案。直接分段会利用句子分词器对文本进行一定长度拆分,最终分割中多组的q。如果使用了直接分段方案,我们建议在应用设置引用提示词时,使用通用模板即可,无需选择问答模板。

导入成功

至此,个人知识库已经建好了。尝试进行测试问答

链接训练数据

代码语言:javascript
复制
https://mp.weixin.qq.com/s/1GD8eKrxJWXdgS3OKR4VHQ
https://mp.weixin.qq.com/s/BFdfDXHavZ_jZwVaFq2duQ
https://mp.weixin.qq.com/s/mNhMCzUtLUKrIzqSVa-qZA
https://mp.weixin.qq.com/s/n4n-0UCWJW9u2N1ca3HisQ
https://mp.weixin.qq.com/s/WXAPxHYteX7h1Hu73KEnFQ
https://mp.weixin.qq.com/s/chI8IbenaMFejvS7blLsBw

等待所有数据准备就绪

使用知识库

创建应用

使用知识库必须要创建一个应用

关联知识库

设置了开场白并且选择绑定对应知识库开源技术小栈

点击保存预留后,可以直接在右边调试预览框预览对话进行文档内容测试。

开始对话

点击链接查看知识库引用

打开对应链接可以直接跳转到微信公众号文章地址

总结

构建私有数据训练服务,针对问题提供精准回答。可以通过AI服务训练自有数据,形成AI知识库,然后创建不同的机器人针对用户问题提供精准回答。并且可以通过API接口很方便整合到自己的产品服务中。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-11-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 开源技术小栈 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • FastGPT
  • 私有化部署
    • 1、安装 Docker
      • 2、容器编排
        • 3、启动容器
          • 4、访问 FastGPT
          • 构建知识库
            • 创建知识库
              • 使用知识库
                • 创建应用
                • 关联知识库
                • 开始对话
            • 总结
            相关产品与服务
            容器服务
            腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档