前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >论文阅读08——《Deep Learning on Graphs: A Survey》

论文阅读08——《Deep Learning on Graphs: A Survey》

作者头像
Marigold
发布2023-08-24 10:15:59
2400
发布2023-08-24 10:15:59
举报
文章被收录于专栏:MarigoldMarigold

论文阅读08——《Deep Learning on Graphs: A Survey》

作者:Ziwei Zhang, Peng Cui, Wenwu Zhu 发表时间:2020年3月 论文地址:https://arxiv.org/pdf/1812.04202.pdf%E3%80%82 :::hljs-center

::: @toc

摘要

深度学习在许多领域都是成功的,从声学、图像到自然语言处理。然而,由于图的独特特性,将深度学习应用于无处不在的图数据并非易事。最近,大量的研究致力于将深度学习方法应用于图,从而在图分析技术方面取得了有益的进展。在这项调查中,我们全面回顾了不同类型的图深度学习方法。我们根据模型结构和训练策略将现有方法分为五类:图循环神经网络、图卷积网络、图自动编码器、图强化学习和图对抗方法。然后,我们主要通过跟踪其发展历史,以系统的方式对这些方法进行全面概述。我们还分析了不同方法的差异和组成。最后,我们简要概述了它们的应用,并讨论了未来可能的研究方向。

之前很少有总结图上深度学习方法区别和联系的工作,所以作者写了这篇文章。

图上深度学习的几大挑战
  • 图结构不规则性---->一些基础的数学运算操作无法在图上进行,例如卷积核池化操作。因此需要重新定义图上的操作。
  • 图的异质性和多样性---->对于不同类型、属性和任务需要不同的模型体系结构解决特定问题。
    • 图角度:异构图和同构图、异质性和同质性、加权图和无加权图、有向图和无向图等;
    • 任务角度:
      • 节点级别:节点分类、链接预测、节点推荐
      • 图级别:图分类、图生成
  • 大规模图---->真实世界中的图规模非常大,无论从时间还是空间上来说,处理难度都很高,设计相对图大小具有线性时间复杂度的模型很关键
  • 融合跨学科知识---->整合领域知识会使得模型设计复杂化

作者将图上深度学习方法总结为五类:

类别

基础假设/目标

主要函数

图循环神经网络

图的递归和序列模式

节点和图的状态定义

图卷积神经网络

图的局部和全局结构模式

图卷积和readout操作

图自编码器

图的低秩结构

无监督节点表示学习

图强化学习

图任务的反馈和约束

基于图的行为和奖励

图对抗方法

基于图的模型的泛化能力和鲁棒性

图对抗训练和攻击

图循环神经网络 Graph RNNs

图循环神经网络大致分为两类:节点级别循环神经网络和图级别循环神经网络。主要区别在于模式是位于节点级别并由节点状态建模,还是位于图级别并由公共图状态建模。

节点级别循环神经网络

也被叫做图神经网络GNNs,其想法很简单:编码图结构信息,每个节点由一个低维状态向量表示。受循环神经网络启发采用了状态的递归定义:

s_i=\sum_{j\in \mathcal{N}{(i)}}\mathcal{F}(s_i,s_j.F_i^V,F_j^V,F{i,j}^E)

\hat{y}_i=\mathcal{O}(s_i,F_i^V)

对于以图为中心的任务,可以添加一个具有独特属性的特殊节点来表示整个图。为了学习模型参数,采用以下半监督方法:使用Jacobi方法迭代求解上述方程到一个稳定点,使用Almeida-Pineda算法执行梯度下降最小化特定任务的目标函数。

GNNs通过以上两个方程展现了重要作用。回顾过去,GNN统一了一些早期处理图数据的方法,例如循环神经网络和马尔可夫链。展望未来,GNNs的基本思想有重要启示:许多先进的GCNs和第一个公式类似,在直接节点邻域内遵循相同的信息交换框架。事实上,GNNs和GCNs可以统一到一些常见的框架中,GNNs相当于使用相同层来达到稳定状态的GCNs。

虽然GNN在概念上很重要,但是有几个缺点。首先,为了确保第一个方程有唯一解,\mathcal{F}必须是一个“收缩图”,

\exists \mu, 0 < \mu < 1, \to \parallel \mathcal{F}(x) - \mathcal{F}(y) \parallel \le \mu \parallel x-y \parallel, \forall x,y

直观地说,“收缩图”要求任意两点之间的距离只能在\mathcal{F}操作之后“收缩“,这个严重限制了建模能力。其次,由于梯度下降步骤之间要多次迭代才能达到稳定状态,GNNs的计算成本很高。

GNNs的一个显著改进是门控图序列神经网络(GGS-NNs),作者替换了递归定义,使用GRU从而消除“收缩图”要求并支持现代化技术:

s_i^{(t)}=(1-z_i^{(t)})\odot s_i^{(t-1)}+z_i^{(t)} \odot \widetilde{s}_i^{(t)}

其次,作者建议使用几个顺序运行的网络来产生序列输出。

SSE采用了和上述公式类似的方法,但是SSE并没有在计算中使用GRU,而是采用随机不动点梯度下降来加速训练。该方案基本上在使用局部邻域计算稳定节点状态和优化模型参数之间交替进行,两种计算都是随机小批量的。

图级别循环神经网络

在图级RNNs中,不是将一个RNNs用于每个节点来学习节点状态,而是将单个RNN用于整个图以对图状态进行编码。

You等人将图RNN用于图生成问题,他们采用了两种RNN,一种生成新节点,另一种以自回归方式为新添加的节点生成变,这种分层RNN架构比传统的基于规则的图生成模型更有效地从输入图中学习,同时具有更合理的时间复杂度。

为了捕获动态图的时间信息,提出了动态图神经网络(DGNN),该网络使用时间感知LSTM更新两个交互节点及其直接邻居的表示,即考虑一步传播效应。时间感知LSTM可以很好地模拟边缘形成的建立顺序和时间间隔,这反过来有利于一系列图形应用。

未完待续。。。。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2022-06-18 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 论文阅读08——《Deep Learning on Graphs: A Survey》
    • 未完待续。。。。
    相关产品与服务
    图数据库 KonisGraph
    图数据库 KonisGraph(TencentDB for KonisGraph)是一种云端图数据库服务,基于腾讯在海量图数据上的实践经验,提供一站式海量图数据存储、管理、实时查询、计算、可视化分析能力;KonisGraph 支持属性图模型和 TinkerPop Gremlin 查询语言,能够帮助用户快速完成对图数据的建模、查询和可视化分析。
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档