今天先进行各部分解析,随后附上完整代码文件、环境配置及运行操作说明。想跳过解析直接运行代码,可跳转至第四节。
一、任务概述
本章主要介绍如何在本地接入大模型和文本编码模型,利用模型对文件生成知识图谱数据,并接入 RAG 框架提高回答准确性。
具体流程包括:配置本地大语言(LLM)和中文文本嵌入(Embedding)模型;连接 Nebula Graph 数据库并创建 “wukong” 图空间;用 llama_index 加载文档构建图索引并存入数据库;查看数据并绘制知识图谱可视化文件;对比常规向量语义与知识图谱查询结果。
二、代码详细解析
3.1 配置本地大语言与嵌入模型
配置后可用!nvidia - smi查看 GPU 使用情况,加载模型后 12G 显存占用近 10G。
3.2 连接知识图谱数据库
此处解释了ngql魔法命令作用,以及图空间创建参数(VID 类型、分区、副本)的含义与选择范围。
3.3 加载文档构建索引并保存
3.4 查看数据库并可视化
介绍了各ngql语句的使用场景和作用。
3.5 对比常规与知识图谱查询
四、完整代码及操作说明
文件放置结构如下: