首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >腾讯开源 WeKnora:基于大模型的智能知识库,轻松部署全攻略

腾讯开源 WeKnora:基于大模型的智能知识库,轻松部署全攻略

原创
作者头像
星哥玩云
发布2025-09-07 22:49:04
发布2025-09-07 22:49:04
2.8K00
代码可运行
举报
文章被收录于专栏:星哥的AI自留地星哥的AI自留地
运行总次数:0
代码可运行

腾讯开源 WeKnora:基于大模型的智能知识库,轻松部署全攻略

前言

在企业知识管理、科研文献分析、技术支持、法律合规审查等场景中,传统的全文检索和关键词匹配已经无法满足复杂、多模态的文档理解需求。

腾讯近期开源的 WeKnora 框架,将大语言模型(LLM)与语义检索、智能推理深度融合,为结构复杂、内容异构的文档提供高质量的问答与分析能力。

本文将带你快速了解 WeKnora 的核心特性,并手把手演示如何在 飞牛 NAS 上通过 Docker 部署,让你的私有知识库秒变“智能问答专家”。

img
img

WeKnora 项目介绍

WeKnora(维娜拉) 是一款基于大语言模型(LLM)的文档理解与语义检索框架,专为结构复杂、内容异构的文档场景而打造。

框架采用模块化架构,融合多模态预处理、语义向量索引、智能召回与大模型生成推理,构建起高效、可控的文档问答流程。核心检索流程基于 RAG(Retrieval-Augmented Generation) 机制,将上下文相关片段与语言模型结合,实现更高质量的语义回答。

官网: https://weknora.weixin.qq.com

核心特性

  • 🔍 精准理解:支持 PDF、Word、图片等文档的结构化内容提取,统一构建语义视图
  • 🧠 智能推理:借助大语言模型理解文档上下文与用户意图,支持精准问答与多轮对话
  • 🔧 灵活扩展:从解析、嵌入、召回到生成全流程解耦,便于灵活集成与定制扩展
  • ⚡ 高效检索:混合多种检索策略:关键词、向量、知识图谱
  • 🎯 简单易用:直观的Web界面与标准API,零技术门槛快速上手
  • 🔒 安全可控:支持本地化与私有云部署,数据完全自主可控

使用场景

img
img

功能模块能力

img
img

在飞牛 NAS 上部署 WeKnora

理论上,任何支持 Docker 的设备都可部署 WeKnora,这里以飞牛 NAS 为例。

确保本地已安装以下工具:

Docker、Docker Compose、Git

1. 启用 SSH 登录

在飞牛 OS 中开启 SSH 登录 功能,并切换到 root 用户:

代码语言:javascript
代码运行次数:0
运行
复制
sudo -i

2. 创建部署目录

代码语言:javascript
代码运行次数:0
运行
复制
mkdir -p /docker/docker && cd /docker/docker

3. 克隆项目

代码语言:javascript
代码运行次数:0
运行
复制
# 克隆主仓库
git clone https://github.com/Tencent/WeKnora.git
cd WeKnora

4. 配置环境变量

代码语言:javascript
代码运行次数:0
运行
复制
cp .env.example .env
# 编辑 .env 填写对应配置信息

.env.example 文件中有详细注释,可根据实际情况修改。

5.启动服务

如果需要安装ollama则执行这个,我这边不执行,因为我已经有安装ollama了。

代码语言:javascript
代码运行次数:0
运行
复制
# 启动全部服务(含 Ollama 与后端容器)
./scripts/start_all.sh
# 或
make start-all

5.启动服务备选

代码语言:javascript
代码运行次数:0
运行
复制
# 启动服务
docker compose up -d
img
img

接下来就看网络的情况了。

6.停止服务

代码语言:javascript
代码运行次数:0
运行
复制
./scripts/start_all.sh --stop
# 或
make stop-all

服务访问地址

启动成功后,可访问以下地址:

  • Web UI:http://localhost
  • 后端 API:http://localhost:8080
  • 链路追踪(Jaeger):http://localhost:16686

首次进入需配置:

首次访问会自动跳转到初始化配置页面,配置完成后会自动跳转到知识库页面。请按照页面提示信息完成模型的配置。

  • 大模型(本地 ollama 或远程 API)
  • Embedding 模型
  • Rerank 模型
  • 多模态解析
  • 文档分割策略

使用体验

  1. 上传文档 支持批量上传,系统会自动解析并生成知识库索引。
  2. 智能问答 输入问题,WeKnora 会结合知识库内容进行精准回答,并给出引用来源。
  3. 多轮对话 支持上下文关联的连续提问,适合深度分析与探索。

WeKnora 提供了一系列 RESTful API,用于创建和管理知识库、检索知识,以及进行基于知识的问答。本文档详细描述了这些 API 的使用方式。

如何查看日志?

代码语言:javascript
代码运行次数:0
运行
复制
# 查看 主服务 日志
docker exec -it WeKnora-app tail -f /var/log/WeKnora.log
​
# 查看 文档解析模块 日志
docker exec -it WeKnora-docreader tail -f /var/log/docreader.log

如何启动和停止服务?

代码语言:javascript
代码运行次数:0
运行
复制
# 启动服务
./scripts/start_all.sh
​
# 停止服务
./scripts/start_all.sh --stop
​
# 清空数据库
./scripts/start_all.sh --stop && make clean-db

应用场景

  • 企业内部知识管理
  • 科研文献分析
  • 产品技术支持
  • 法律合规审查
  • 医疗知识辅助

总结

WeKnora 作为腾讯开源的 智能知识库框架,在文档解析、语义检索、智能推理等方面表现出色。 结合飞牛 NAS(其他的服务器也可以) 的本地化部署能力,你可以轻松构建一个 安全可控、功能强大 的私有知识库系统。

如果你正在寻找一款 可本地部署、支持多模态、基于大模型的知识库解决方案,WeKnora 值得一试。

写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧! 😊

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 腾讯开源 WeKnora:基于大模型的智能知识库,轻松部署全攻略
    • 前言
    • WeKnora 项目介绍
    • 核心特性
    • 使用场景
    • 功能模块能力
    • 在飞牛 NAS 上部署 WeKnora
      • 1. 启用 SSH 登录
      • 2. 创建部署目录
      • 3. 克隆项目
      • 4. 配置环境变量
      • 5.启动服务
      • 5.启动服务备选
      • 6.停止服务
      • 服务访问地址
    • 使用体验
    • 如何查看日志?
    • 如何启动和停止服务?
    • 应用场景
    • 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档