首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

第一本《图深度学习》重磅出炉!KDD 新星奖大神汤继良力作

作者 | 陈大鑫

编辑 | 陈彩娴

近年来深度学习最大的进展之一就是将深度学习扩张到图领域,也就是图深度学习。虽然市面上有很多关于深度学习的书本,而且这些书本得到了很广泛地关注。但是还没有一本专门针对图深度学习的系统介绍性的书。

而现在来自密西根州立大学的汤继良团队即将出版一本全面性介绍图深度学习的书:《Deep Learning on Graphs》。

该书的中英文版将同时出版。英文版由剑桥出版社出版,作者包括马耀和汤继良。中文翻译版由电子工业出版社出版,作者包括王怡琦,金卫,马耀和汤继良。

今日汤继良团队发布了英文版的预印本,可以通过文章之后提供的链接,免费下载。

汤继良,密歇根州立大学数据科学与工程实验室(Data Science and Engineering Laboratory)教授,于今年8月刚刚荣获新设立的第一届KDD年度新星奖(Rising Star Award)。

汤老师的学术成果卓著,在影响因子期刊与多个顶级学术会议发表过上百篇研究成果。他的研究贡献具有开创性,探索了数据挖掘领域的新思想或新方向,因此被其他研究人员广泛引用。他论文引用量突破12000次,h-index 52, 超过30篇论文的单篇引用量超过100,并屡获学科领域大奖,其中包括美国自然科学基金杰出青年奖 (NSF Career Award),KDD最佳博士论文奖亚军和顶会如KDD与WSDM上获得7次最佳论文奖(包括提名)。

AI科技评论之前有幸对汤继良老师进行了专访,更多内容可移步“汤继良:从小镇走出来的KDD科研新星 | 专访”一文。

接下来AI科技评论将重点介绍这本即将出版的《图深度学习》专著。

1

全书概要

为了最好地适应具有不同背景和阅读目的的读者,该书由四个部分组成。

第1部分介绍了基本概念;第2部分讨论了该领域最成熟的方法;第3部分介绍了最具代表性的实际应用,而第4部分介绍了有可能成为将来研究热点的高级方法和应用。每部分的内容如下:

第1部分:基本概念篇

在该部分的章节重点介绍图和深度学习的基础知识,这些基础将为图的深度学习奠定基础。在第1章中,介绍了图的关键概念和属性,图傅里叶变换,图形信号处理,并正式定义了各种类型的复杂图和在图上的计算任务。在第2章中,讨论了各种最基础的神经网络模型,训练深度模型的关键方法以及防止训练过程中过度拟合的实用技术。

第2部分:方法篇

这些章节涵盖了从基本设置到高级设置的最成熟的图深度学习方法。在第3章中,从信息保存的角度介绍了一种通用的图嵌入框架,提供了有关在图像上保留多种类型信息的代表性算法的技术细节,并介绍了专门为复杂形设计的嵌入方法。典型的图神经网络模型包括两个重要操作,即图过滤操作和图池化操作。

在第4章中,回顾了最新的图过滤和池化操作,并讨论了如何在给定下游任务的时学习GNN参数。GNNs是传统深度模型在图上的泛化,因此它们继承了传统深度模型的缺点,容易受到对抗攻击。

在第5章中,重点介绍图对抗攻击的概念和定义,并详细介绍了具有代表性的对抗攻击和防御技术。GNN执行跨层邻域的递归扩展。单个节点邻域的扩展会迅速涉及图的很大一部分甚至整个图。因此,可扩展性是GNN需要解决的紧迫问题。

在6章中详细介绍了用于可扩展性GNN的代表性技术。在第7章中,讨论了为更复杂的图设计的GNN模型。为了使深度学习技术能够在更广泛的设置下推进更多的图应用,在第8中介绍了GNN之外的众多图深度模型。

第3部分:实际应用篇

图提供了真实数据的通用表示方法;因此,在图深度学习方法已应用于各个领域。在这部分的章节中,将介绍了GNN的最具代表性的应用,包括第9章中的自然语言处理,第10章中的计算机视觉,第11章中的数据挖掘和第12章中的生物化学与医疗保健。

第4部分:进展篇

在该部分章节中,重点介绍方法和实际应用方面的最新进展。在13章中,从表达性,深度,公平性,可解释性和自我监督学习方面介绍了高级GNNs。在第14中,讨论了GNN应用的更多领域,包括组合优化,物理,程序表示, 和计算机网络。

2

图深度学习

为什么深度学习需要在图上进行?

由于实际应用程序中的数据具有非常多样化的形式,比如从矩阵和张量到序列和时间序列,一个自然出现的问题就是为什么我们试图将数据表示为图?

这有两个主要动机:

第一,如下图所示,图提供了数据的通用表示。来自不同领域的很多系统的数据可以明确地表示为图,如社交网络、交通网络、蛋白质相互作用网络、知识图谱和大脑网络。同时,很多其他类型的数据也可以转换成图的形式。

图:将真实世界的数据表示为图形。这个图片来自 (Xu, 2017),实线表示无损表示,虚线表示有损表示(我们将原图中的“network”替换为了“graph”)。

第二,大量的现实问题可以作为图上的一组计算任务来处理。推断节点属性、检测异常节点(如垃圾邮件发送者或恐怖分子)、识别与疾病相关的基因、向患者推荐药物等都可以归结为节点分类问题。推荐、多药副作用预测、药物靶向相互作用识别、知识图谱完善等实质上也是节点连接预测问题。

图的节点本质上是连接的,这意味着节点不独立且分布不同。因此,传统的机器学习技术不能直接应用于图上的计算任务。

这里有两个主要的解决方向,如下图所示,我们将使用节点分类作为示例来讨论这两个方向。

第一个方向是建立一种新的图机制。其中为图设计的分类问题被称为集合分类,如上图a所示。这与传统分类不同,对于一个节点,集合分类不仅考虑其特征与其标签之间的映射,还考虑了其邻域的映射。

第二个方向是通过构造一组特征来表示可以应用传统分类技术的节点,从而使图扁平化,如上图b所示。这个方向可以利用到传统的机器学习技术,因此,它变得越来越流行以及占据了主导地位。这个方向成功的关键是如何为节点(或节点表示)构造一组特征。

深度学习已经被证明在表征学习中是非常强大的,它极大地促进了计算机视觉、语音识别和自然语言处理等各个领域。因此,将深度学习与图表征联系起来将提供前所未有的大好机会。然而,图深度学习也面临着巨大的挑战。

首先,传统的深度学习是针对图像和序列等规则结构数据设计的,而图是不规则的,图中的节点是无序的,并且可以有不同的邻域。

其次,规则结构的数据信息简单,而图的结构信息比较复杂,特别是复杂图的种类会很繁多,因为节点和边可以关联丰富的信息,而传统的深度学习不足以捕捉到如此丰富的信息。

图深度学习这个新的研究领域被培育出来了,这将为我们带来前所未有的机遇和巨大的挑战。

3

图特征学习简史

如前所述,为了利用传统的机器学习来处理图上的计算任务,必须要找到向量节点表示。

如下图所示,实现这一目标的方法主要有两种:特征工程和特征学习。特征工程依赖于手工设计的特征,如为图节点的度做统计,而特征学习则是自动学习节点特征。

一方面,我们通常不知道哪些特征是必要的,尤其是对于给定的下游任务;因此,特征工程中的特征对于下游任务可能是次优的,这个过程需要大量的人工努力。

另一方面,特征学习是自动学习特征,下游任务可以指导此过程。因此,通过学习得到的特征很可能适用于通过特征工程获得更好性能的下游任务。

同时,这个过程需要最少的人工干预,并且可以很容易地适应新的任务。因此,基于图的特征学习得到了广泛的研究,并针对不同的需求和场景提出了各种类型的特征学习技术。

我们将这些技术大致分为图特征选择和图表征学习,前者的目的是去除不相关和冗余的节点特征,后者的目的是生成一组新的节点特征。我们现在简要回顾这两组技术,它们为读者理解图深度学习提供了通用的历史背景。

4

图特征选择

现实世界中的数据往往是高维的,会存在噪声、无关和冗余的特征(或维度),尤其是在考虑给定任务时。

而特征选择的目的正是自动选择冗余度最小但与目标相关性最大的一小部分特征,如监督设置下的类标签。

在许多应用中,原始特征对于知识提取和模型解释至关重要。例如,在癌症的基因分析研究中,除了区分癌组织外,更重要的是要确定诱发癌变的基因(即原始特征)。

在这些要求很高的应用中,特征选择尤其受到青睐,因为它保持了原始特征,并且它们的语义通常为学习问题提供了关键的见解。

传统的特征选择假设数据实例是独立同分布的(i.i.d.)。然而,在许多应用中,数据样本嵌入在本质上不是独立同分布的图上,这推动了图的特征选择研究。

给定一个图G=,其中V是节点集,E是边集,我们假设每个节点最初与一组d个特征 F= 相关联。

图的特征选择是从F中选择K个特征来表示每一个节点的K个特征, 该问题首次在监督环境下进行研究:利用线性分类器将所选特征映射到类标签,并引入图正则化项来获取特征选择的结构信息。特别是,该研究旨在确保具有所选特征的连接节点可以映射到类似的标签中。

之后,(Wei,Tang和Liu等人)在无监督的情况下进一步研究了该问题。在(Tang 和Liu,2012)的研究中,从结构信息中提取伪标签,作为监督来指导特征选择过程。

在(Wei等人,2016)的研究中,假设节点内容和结构信息都是从一组高质量的特征中生成的,这些特征可以通过最大化生成过程的可能性来获得。

后来,这些问题就从简单图扩展到了复杂图,如动态图、多维图、符号图和属性图。

4

图表征学习

与图特征选择不同,图表征学习是学习一组新的节点特征。几十年来,人们对它进行了广泛的研究,并通过深度学习大大加快了这一进程,现在我们将对它从浅层模型到深层模型进行简要的历史回顾。

在早期阶段,人们已经在谱聚类、基于图的降维以及矩阵因子分解等背景下对图表征学习进行了研究。

在谱聚类中,数据点被视为一个图的节点,然后聚类就是将图划分成节点群。谱聚类的一个关键步骤是谱嵌入,它的目标是将节点嵌入到一个低维空间中,在这个空间中,传统的聚类算法(如k-means)可以用来识别聚类。

基于图的降维技术可以直接应用于节点表示的学习。这些方法通常使用基于数据样本的原始特征的预定义距离(或相似性)函数来构建相似性图。它们的目标是学习节点表示,以保存图的结构信息。

矩阵是表示图的常用方法之一,如邻接矩阵、关联矩阵和拉普拉斯矩阵。其中矩阵分解可以自然地应用于学习节点表示,假设我们用邻接矩阵来表示一个图,在这种情况下,它的目标是将节点嵌入到一个低维空间中,并利用新的节点表示来重构邻接矩阵。

矩阵分解有以下应用:

文档语料库可以表示为以文档和单词为节点的二分图,当单词出现在文档中时,单词和文档之间存在一条边。LSI使用截断SVD来学习文档和单词的表示。

在推荐系统中,用户和项目之间的交互可以被描述为一个二分图,其中矩阵分解被用来学习用户和推荐项目的表示。

矩阵分解还用于学习节点分类、链路预测和社区检测的节点表示。

本书后面介绍的一系列现代图嵌入算法也可以统一为矩阵分解。

Word2vec是一种生成词嵌入技术,它以大量的文本作为输入,并为语料库中每个唯一的单词生成一个向量表示。Word2vec在各种自然语言处理任务中的巨大成功促使人们越来越多地应用Word2vec,尤其是用Skip-gram模型来学习图域中的节点表示。

DeepWalk迈出了实现这一目标的第一步。具体来说,给定图中被视为人工语言单词的节点,这种语言中的句子是由随机滑动生成的。

然后,利用Skip-gram模型学习节点表示,保持了随机滑动中节点的共现性,之后,在三个主要方向上开展了大量的工作:

(1)开发先进的方法来保持节点的协同发生;

(2)保存其他类型的信息,如节点的结构角色、协同信息和节点状态;

(3)设计复杂图的框架,如有向图、异构图、二部图、多维图、有符号图,超图和动态图。

鉴于DNNs在表示学习中的强大和成功,人们越来越努力将Dnn推广到图上。这些图神经网络方法(GNNs)大致可分为空间方法和谱方法。

空间方法明确地利用图结构,例如空间上的近邻,第一种空间方法是由Scarselli等人在2005年提出的。

谱方法采取图的傅里叶变换和逆图傅里叶变换优点来利用图的谱视图。

在深度学习时代,GNNs在以下几个方面得到了迅速的发展。

大量新的GNN模型已经被引入,包括谱方法和空间方法。

对于以图为中心的任务,如图分类,需要整个图的表示。因此,已经引入了许多方法来从节点表示中获得图表示。

传统Dnn易受对抗攻击。GNNs继承了这个缺点。研究了各种图对抗攻击并开发了各种防御技术。

如上所述,可缩放性按多个策略的问题已经进行了研究,以允许GNNs缩放到大型图形。

GNN模型设计用于处理复杂图,如异构图、二部图、多维图,有符号图,超图和动态图。

不同的深层架构已被概括为图,如autoencoder、变分eutoencoder、递归神经网络和生成对抗网络。

由于图是一种通用的数据表示,GNN已应用于许多领域,如自然语言处理、计算机视觉、数据挖掘和医疗保健。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200902A0MVSZ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券