前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MindMap: 将知识图谱引入LLMs,实现稳健且可解释的推理

MindMap: 将知识图谱引入LLMs,实现稳健且可解释的推理

作者头像
zenRRan
发布2023-09-11 14:46:35
1.3K0
发布2023-09-11 14:46:35
举报
文章被收录于专栏:深度学习自然语言处理

作者:文祎琳

像 GPT-3.5 这样的大型语言模型 (LLM) 已经展示了令人印象深刻的自然语言功能。然而,他们的推理过程仍然不透明,容易产生幻觉,且微调LLM成本极其昂贵。

最近提出的思维导图MindMap提出了一种推进思路,通过将知识图谱(KG)引入LLMs,使其能够理解KG输入并结合内部和外部知识进行推理。此外,还研究了如何提取LLMs的思维图,作为其推理和回答生成的依据。

这项工作的目标是建立一个即插即用的提示方法来引出LLM的思维图推理能力。之所以称之为MindMap思维导图,因为它使LLM能够理解图形输入,以构建他们自己的思维导图,支持基于证据的生成。

MindMap概念框架

MindMap的框架的概念性演示图如下所示。它包括三个主要部分:

  1. 证据图挖掘:首先从原始输入中识别实体集Vq,并查询源知识图谱 G 以构建多个证据子图Gq。
  2. 证据图聚合:接下来,LLM被提示理解和聚合检索到的证据子图,以构建推理图Gm。
  3. 思维导图上的LLM推理:最后,我们提示LLM巩固构建的推理图和他们的隐性知识来生成答案,并构建解释推理过程的思维导图。

concept graph

具体来说,思维导图激发了LLM的思维图,它

  • 巩固了从KGs中检索到的事实和从LLM中获得的隐性知识,
  • 在输入KGs中发现新的模式,
  • 通过思维导图产生最终输出。

我们在三个数据集上进行了实验,以说明MindMap在很大程度上优于一系列提示方法。

这项工作强调了LLM如何学习与KG进行协同推理,将隐式和显式知识结合起来,以实现透明和可靠的推理。

具体代码细节可以参考github[1]。

这项研究的贡献是什么?

这项研究的贡献在于探索了LLM在图输入上的推理能力,并强调了联合推理与内隐和外部显式知识的结合。

同时模型提出了一个值得研究的问题,针对一般性的任务(不需要额外检索信息)时,像GPT-3.5这样的LLM模型表现得更好,而检索方法表现得很差。这表明检索方法在一定程度上忽略了LLM所学的知识。因此,在设计通用型LLM时,有效地将LLM本身的知识与KG知识融合协同推理是非常有必要的。

总结

思维导图提供了一个可解释的通道,通过提示LLM对结构化知识图谱知识进行推理,使用其隐含知识和聚合的知识图谱证据来跟踪LLM的推理。这可视化了询问模型的思维过程的合理性和事实基础。这种透明的推理图能够在结合外部和内部知识的同时检测和避免潜在的幻觉。

通过这种方式,可以将结构化知识、紧急推理和神经语言理解的优势结合起来,以获得更强大和可解释的智能!

参考资料

[1]

github: https://github.com/wyl-willing/MindMap

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-09-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • MindMap概念框架
  • 这项研究的贡献是什么?
  • 总结
    • 参考资料
    相关产品与服务
    灰盒安全测试
    腾讯知识图谱(Tencent Knowledge Graph,TKG)是一个集成图数据库、图计算引擎和图可视化分析的一站式平台。支持抽取和融合异构数据,支持千亿级节点关系的存储和计算,支持规则匹配、机器学习、图嵌入等图数据挖掘算法,拥有丰富的图数据渲染和展现的可视化方案。
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档