前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【源头活水】从对比链接中蒸馏自知识:非消息传递的图节点分类

【源头活水】从对比链接中蒸馏自知识:非消息传递的图节点分类

作者头像
马上科普尚尚
发布2021-07-05 10:56:58
6820
发布2021-07-05 10:56:58
举报

“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。

来源:知乎—罗意

地址:https://zhuanlan.zhihu.com/p/381624918

原文地址:https://cf020031308.github.io/papers/2021-distilling-self-knowledge-from-contrastive-links-to-classify-graph-nodes-without-passing-messages/

这篇文章从图网络的边中蒸馏知识,使 MLP 在图节点分类任务上达到了 GNN 的表现。不传递消息、不使用邻接矩阵、在边集上训练,因此空间占用低、分类速度快。

此外,作者还从随机点对中蒸馏“逆边”的知识,进一步提升了模型的效果。

01

方法

分叉 MLP

通常的图神经网络方法(GNN)基于消息传递模式,使用邻居节点传递来的消息帮助中心节点的分类。那么反过来说,任一节点中应含有其邻居节点的部分信息。

因此构造分叉 MLP:从 MLP 的倒数第二层分叉出另一个输出层,为与原输出层相区别称为“推理层”。分叉 MLP 接受一个节点的特征作为输入,输出该节点和它邻居节点的标签分布。

边蒸馏(Link Distillation)

设对任一边 ,节点 和 的特征分别为 和 ,通过分叉 MLP 得到 和 ,节点标签为 和 。

则根据分叉 MLP 的设计,可让 和 逼近 ,让 和 逼近 ,最小化它们的交叉熵。同时,让 逼近 ,让 逼近 ,最小化它们的误差(MSE)。前者是常规的监督学习,而后者可以看作是在做自知识蒸馏。

随机点对的对比蒸馏

如果随机采样一对节点,这对节点之间就(大概率)不能借助分叉 MLP 相互推导了。因此用对比学习的思路,最大化一个节点的标签和另一个节点的推理层输出之间的交叉熵,同时最大化一个节点的输出层输出和另一个节点的推理层输出。

02

两种分类模式

分叉 MLP 训练好后,可以将推理层扔掉变回一个经典的 MLP 结构,输入节点特征对节点进行分类。这种模型根据是否对逆边做对比蒸馏命名为 CoLinkDistMLP 和 LinkDistMLP。

另外,也可以保留推理层,将输出加到邻居节点上,提升邻居节点的分类准确率。但这样一来,就相当于又用上消息传递模式了。这种模型根据是否对逆边做对比蒸馏在文章中称为 CoLinkDist 和 LinkDist。

03

实验

做了归纳式、转导式和全监督三种设置下 8 个常用图数据集的节点分类实验,对比的基准除了 MLP 和 GCN 以外,还有 GCN2MLP 代表用训练好的 GCN 模型蒸馏得到的 MLP。

半监督、归纳式:

半监督、转导式:

全监督(转导式):

04

实验结果

1. 即使仅仅是 LinkDistMLP,也接近甚至超过了 GCN 的表现,说明这种方式训练出的 MLP 确实能达到 GNN 的效果

2. 用上消息传递和对比蒸馏能进一步提升模型效果

3. GCN2MLP 在半监督时效果比 GCN 还要好,但在全监督时可用于蒸馏的知识不多,最后表现跟 MLP 差不多

此外,还用了 Open Graph Benchmark 的数据集进行节点分类实验

代码语言:javascript
复制
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
深度强化学习点云配准——ReAgent技术详解
DynamicViT: 动态Token稀疏化的高效视觉 Transformer
地表最强图神经网络竟然是transformer
ICME21 你的检测器还安全吗? RPATTACK:YOLO和Faster R-CNN的攻击利器
松弛Transformer:实现直接出框的时序动作检测
Synthesizer-其实我们还不够了解Self-Attention
预训练卷积超越预训练Transformer?
SegFormer: 简单有效的语义分割新思路
ACL2021 | 把关键词生成看成集合预测问题
将预训练BERT用于Task-Oriented对话系统
文本相似:Sentence-BERT 原理与实践
代码层面解读3D点云目标检测算法TANet
BERT Attack: 基于BERT的文本对抗技术
ConTNet:在视觉任务中同时使用Transformer和Convolution
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-06-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能前沿讲习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 分叉 MLP
  • 边蒸馏(Link Distillation)
  • 随机点对的对比蒸馏
相关产品与服务
图数据库 KonisGraph
图数据库 KonisGraph(TencentDB for KonisGraph)是一种云端图数据库服务,基于腾讯在海量图数据上的实践经验,提供一站式海量图数据存储、管理、实时查询、计算、可视化分析能力;KonisGraph 支持属性图模型和 TinkerPop Gremlin 查询语言,能够帮助用户快速完成对图数据的建模、查询和可视化分析。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档