在企业知识管理、科研文献分析、技术支持、法律合规审查等场景中,传统的全文检索和关键词匹配已经无法满足复杂、多模态的文档理解需求。
腾讯近期开源的 WeKnora 框架,将大语言模型(LLM)与语义检索、智能推理深度融合,为结构复杂、内容异构的文档提供高质量的问答与分析能力。
本文将带你快速了解 WeKnora 的核心特性,并手把手演示如何在 飞牛 NAS 上通过 Docker 部署,让你的私有知识库秒变“智能问答专家”。
WeKnora(维娜拉) 是一款基于大语言模型(LLM)的文档理解与语义检索框架,专为结构复杂、内容异构的文档场景而打造。
框架采用模块化架构,融合多模态预处理、语义向量索引、智能召回与大模型生成推理,构建起高效、可控的文档问答流程。核心检索流程基于 RAG(Retrieval-Augmented Generation) 机制,将上下文相关片段与语言模型结合,实现更高质量的语义回答。
官网: https://weknora.weixin.qq.com
理论上,任何支持 Docker 的设备都可部署 WeKnora,这里以飞牛 NAS 为例。
确保本地已安装以下工具:
Docker、Docker Compose、Git
在飞牛 OS 中开启 SSH 登录 功能,并切换到 root
用户:
sudo -i
mkdir -p /docker/docker && cd /docker/docker
# 克隆主仓库
git clone https://github.com/Tencent/WeKnora.git
cd WeKnora
cp .env.example .env
# 编辑 .env 填写对应配置信息
.env.example
文件中有详细注释,可根据实际情况修改。
如果需要安装ollama则执行这个,我这边不执行,因为我已经有安装ollama了。
# 启动全部服务(含 Ollama 与后端容器)
./scripts/start_all.sh
# 或
make start-all
# 启动服务
docker compose up -d
接下来就看网络的情况了。
./scripts/start_all.sh --stop
# 或
make stop-all
启动成功后,可访问以下地址:
http://localhost
http://localhost:8080
http://localhost:16686
首次进入需配置:
首次访问会自动跳转到初始化配置页面,配置完成后会自动跳转到知识库页面。请按照页面提示信息完成模型的配置。
WeKnora 提供了一系列 RESTful API,用于创建和管理知识库、检索知识,以及进行基于知识的问答。本文档详细描述了这些 API 的使用方式。
# 查看 主服务 日志
docker exec -it WeKnora-app tail -f /var/log/WeKnora.log
# 查看 文档解析模块 日志
docker exec -it WeKnora-docreader tail -f /var/log/docreader.log
# 启动服务
./scripts/start_all.sh
# 停止服务
./scripts/start_all.sh --stop
# 清空数据库
./scripts/start_all.sh --stop && make clean-db
WeKnora 作为腾讯开源的 智能知识库框架,在文档解析、语义检索、智能推理等方面表现出色。 结合飞牛 NAS(其他的服务器也可以) 的本地化部署能力,你可以轻松构建一个 安全可控、功能强大 的私有知识库系统。
如果你正在寻找一款 可本地部署、支持多模态、基于大模型的知识库解决方案,WeKnora 值得一试。
写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧! 😊
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。