前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >KDD23 | LM+GNN最新 SOTA

KDD23 | LM+GNN最新 SOTA

作者头像
Houye
发布2023-09-04 13:18:53
1220
发布2023-09-04 13:18:53
举报
文章被收录于专栏:图与推荐图与推荐

https://arxiv.org/pdf/2306.02592v1.pdf

大规模文本语料库上的模型预训练已经被证明在NLP领域的各种下游应用中非常有效。在图挖掘领域,也可以类比预训练图模型在大规模图上,以期望从中获益于下游图应用,这也被一些最近的研究所探索。然而,现有的研究从未研究过在具有丰富文本信息的大型异构图(也就是大型图谱语料库)上预训练文本加图模型,然后在具有不同图模式的不同相关下游应用上对模型进行微调。为了解决这个问题,我们提出了一个在大型图谱语料库上进行图感知语言模型预训练(GaLM)的框架,该框架结合了大型语言模型和图神经网络,并在下游应用上提供了各种微调方法。我们在亚马逊的真实内部数据集和大型公共数据集上进行了广泛的实验。全面的实证结果和深入的分析证明了我们提出的方法的有效性,以及我们从中学到的经验。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-06-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档