前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA

有效融合语言模型、图神经网络,文本图训练框架GLEM实现新SOTA

作者头像
机器之心
发布2022-12-16 17:57:02
5700
发布2022-12-16 17:57:02
举报
文章被收录于专栏:机器之心机器之心

机器之心专栏

机器之心编辑部

蒙特利尔算法学习人工智能实验室(Mila)和微软亚洲研究院等单位提出文本图训练框架 GLEM [1],能够有效融合语言模型和图神经网络,取得 OGB 3 个数据集第一名。

  • 主要单位:蒙特利尔算法学习人工智能实验室(Mila)、微软亚洲研究院等
  • 论文地址:https://arxiv.org/abs/2210.14709
  • 代码地址:https://github.com/andyjzhao/glem

引言

图 1:(a) 文本图 (b) 图神经网络 (c) 语言模型

图是一种普遍的数据结构,建模了节点之间的结构关系。在现实生活中,许多节点包含丰富的文本特征,这种图被称为文本图 (text-attributed graph [2])。例如,论文引用网络中包含了论文的文本和论文之间的引用关系;社交网络中包含了用户的文本描述和用户直接的交互关系。在文本图上的表示学习模型,可以应用于节点分类、链路预测等任务中,具有广泛的应用价值。

文本图包含了两方面信息:节点的文本信息和节点之间的图结构信息。传统文本图的建模可以分为对文本建模和对图建模两个角度。其中,对文本的建模方式(如图 1.b 所示)通常采用基于 Transformer 的语言模型(LM)得到单个节点的文本表示,并对目标任务进行预测;对图建模的建模方式(图 1.c 所示)通常采用图神经网络(GNN),通过消息传播机制来建模节点特征之间的交互,并预测目标任务。

然而,两种模型只能分别建模文本图中的文本和图结构:传统语言模型无法直接考虑结构信息,而图神经网络无法直接对原始文本信息进行建模。为了同时建模文本和图结构,研究者们尝试将语言模型和图神经网络融合起来,同时更新两个模型的参数。但是,现有工作 [2, 3] 无法同时建模大量邻居文本,可拓展性差,无法应用在大文本图上。

GLEM 框架

为了更有效的融合图神经网络和语言模型,本文提出了 Graph and Language Learning by Expectation Maximization (GLEM) 框架。GLEM 框架基于变分期望最大算法(Variational EM),交替学习图神经网络和语言模型,从而获得了很好的可拓展性。

图 2:GLEM 框架

具体地,以节点分类任务为例,在 E 步 , GLEM 根据真实标签和图神经网络预测的伪标签训练语言模型;在 M 步 , GLEM 根据真实标签和语言模型预测的伪标签训练图神经网络。通过这种方式,GLEM 框架有效挖掘了局部的文本信息和全局的结构交互信息。通过 GLEM 框架训练好的图神经网络(GLEM-GNN)和语言模型(GLEM-LM)都可以用来预测节点标签。

实验

论文的实验部分主要从以下几个方面讨论 GLEM 框架:

  • 有效性:GLEM 模型能够有效融合图神经网络和语言模型,对两种模型都有明显提升。GLEM 框架在 OGB 的三个文本图节点分类任务上取得了第一名。
  • 可扩展性:通过交替训练图神经网络和语言模型,GLEM 框架可以同时训练大语言模型和深层 GNN。
  • 无结构归纳推理(Structure-free inductive)能力:传统 GNN 模型在面对没有图结构的新节点时表现不佳。相比之下,GLEM-LM 仅使用文本特征(无需图结构)就能进行有效推理。
  • 模型收敛:GLEM 使用 EM 迭代算法,在一些数据集上一次 EM 迭代即可收敛。

图 3:GLEM 框架在 OGBN-arxiv, products, papers100M 数据集上取得第一名

引用

[1] Zhao et al. Learning on Large-scale Text-attributed Graphs via Variational Inference. Arxiv Preprint '22.

[2] Yang et al. GraphFormers: GNN-nested Transformers for Representation Learning on Textual Graph. In NeurIPS '21.

[3] Zhu et al. TextGNN: Improving Text Encoder via Graph Neural Network in Sponsored Search. In WWW '21.

© THE END

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-12-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档