前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【ICML23】无消息传递的Graph Transformers

【ICML23】无消息传递的Graph Transformers

作者头像
Houye
发布2023-09-04 13:16:21
1700
发布2023-09-04 13:16:21
举报
文章被收录于专栏:图与推荐

针对图数据的Transformer正在被越来越广泛地研究,并在许多学习任务中取得成功。图归纳偏差对于Graph Transformers至关重要,之前的工作通过使用信息传递模块和/或位置编码来加入这些偏差。然而,使用信息传递的Graph Transformers继承了信息传递的已知问题,并且与在其他领域中使用的Transformers显著不同,这使得研究进展的迁移变得更加困难。另一方面,没有使用信息传递的Graph Transformers在较小的数据集上的表现通常较差,在这种情况下,归纳偏差更为重要。为了弥合这个鸿沟,我们提出了Graph Inductive bias Transformer(GRIT)—一种新的Graph Transformer,它在不使用信息传递的情况下融合了图归纳偏差。GRIT基于几个从理论和实证上都得到证明的架构变化,包括:使用随机游走概率初始化的学习相对位置编码,一种可以更新节点和节点对表示的灵活的注意力机制,以及在每一层注入度信息。我们证明GRIT是有表现力的——它可以表示最短路径距离和各种图传播矩阵。GRIT在各种图数据集中实现了最新的实证性能,这显示了不使用信息传递的Graph Transformers所能够带来的强大能力。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-06-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
图数据库 KonisGraph
图数据库 KonisGraph(TencentDB for KonisGraph)是一种云端图数据库服务,基于腾讯在海量图数据上的实践经验,提供一站式海量图数据存储、管理、实时查询、计算、可视化分析能力;KonisGraph 支持属性图模型和 TinkerPop Gremlin 查询语言,能够帮助用户快速完成对图数据的建模、查询和可视化分析。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档