图神经网络(GNNs)已经成为捕捉复杂依赖关系的强大表示学习工具,在多样化的图结构数据中表现出色。尽管在广泛的图挖掘任务中取得了成功,但GNNs也引起了关于其可信度的严重担忧,包括对分布变化的敏感性、对特定人群的偏见,以及缺乏可解释性。最近,将因果学习技术融入GNNs激发了许多开创性的研究,因为大多数可信度问题可以通过捕捉数据的底层因果性而非表面相关性来缓解。在这篇综述中,我们提供了对受因果性启发的GNNs最新研究努力的全面回顾。具体来说,我们首先通过因果性的视角介绍现有GNN模型的关键可信风险。此外,我们基于它们所配备的因果学习能力类型,即因果推理和因果表示学习,介绍了受因果性启发的GNNs(CIGNNs)的分类。除此之外,我们系统地讨论了每个类别中的典型方法,并展示了它们如何减轻可信风险。最后,我们总结了有用的资源,并讨论了几个未来的方向,希望能为这一新兴领域的新研究机会提供启示。
代表性论文以及开源数据和代码可在https://github.com/usail-hkust/Causality-Inspired-GNNs找到。
图结构数据在现实世界的领域中普遍存在,包括社交网络、交通网络和分子网络。传统的深度学习模型在处理欧几里得数据方面设计得很好,但在建模非表格形式的图数据时往往显得不足。因此,多年来提出了许多图神经网络(GNNs)[1],在各种图挖掘应用中取得了最先进的性能。简而言之,GNNs将输入图映射为一组节点表示,这些表示基于邻近节点的信息进行迭代更新。这些更新依赖于直接在图本身或下游任务下的监督下训练的函数。通过捕获局部特征和全局图结构信息,GNNs在低维表示中保留了丰富的知识,极大地促进了一系列下游应用,例如生物信息学[2]、推荐系统[3]、知识表示[4]、[5]、人才分析[6]、城市计算[7]、[8]、[9]等。
随着GNNs的不断发展,围绕它们的可信度问题也日益凸显[10],特别是在超出分布(OOD)的泛化性、公平性和可解释性方面。这篇综述聚焦于这三个关键方面,突出了建立可信GNNs的重要性。首先,许多GNNs由于对训练和测试图之间的分布变化敏感,表现出较差的OOD泛化能力。特别是,图上的分布变化可以发生在属性级别(例如,节点特征)和拓扑级别(例如,节点度数),为OOD泛化带来额外的挑战[11]。其次,GNNs容易生成不公平的表示,导致对某些样本群体的结果存在偏见[12]。例如,基于GNN的求职推荐系统可能会不成比例地减少对某些种族群体个体的工作推荐[13]。第三,GNNs中信息传播的黑箱性质引发了对它们可靠性的担忧,并阻碍了开发者诊断和解决模型性能的不足[14]。例如,银行可能使用GNN模型根据申请人的交易历史预测贷款违约风险,但该模型的可解释性不佳给向高风险个人拒绝贷款的合理化带来困难。此类问题削弱了GNNs的可信度,在应用GNNs于高风险应用,如欺诈检测[15]和刑事司法[16]时尤其令人担忧。解决上述挑战对于拓宽GNNs的应用范围至关重要。
因果学习是一个成熟的领域,专注于从观测数据中恢复潜在的因果机制[17]、[18]、[19]。最近,因果学习被认为是创造可信人工智能的有用工具[20]。因此,研究人员正在探讨如何将因果学习纳入可信图神经网络(TGNNs)的发展中,以进一步利用其优势。总体来说,因果学习可以从三个方面提高GNNs的可信度。在超出分布(OOD)泛化性方面,因果学习可以帮助GNNs提取与任务标签相关的因果特征,以实现跨不同数据分布的泛化[21]、[22]、[23]。关于公平性,因果方法,如因果干预[17],可以通过将GNNs暴露于事实和反事实图中,减轻节点敏感属性的偏见。通过考虑替代情景,因果学习可以帮助GNNs避免捕获敏感属性和节点标签之间的伪相关性,从而导致更公平的结果[16]、[24]。此外,将因果学习融入GNNs可以增强它们的可解释性,使它们能够基于因果机制而非表面相关性运作。这种方法可以帮助GNNs生成更易于解释的结果,并深入理解数据中的因果关系[23]、[25]。
尽管具有潜在的前景,但开发受因果性启发的GNNs(CIGNNs)面临三个主要挑战。首先,图结构数据的高维非欧几里得性质使得图组件(如节点、边或子图)之间的因果关系极其复杂。从图数据中指定感兴趣的因果变量,根据某些领域知识阐明这些变量之间的因果关系,并选择适当的因果学习方法来获取因果知识以提高下游应用中的可信度,这是具有挑战性的[21]、[24]、[26]。其次,将因果知识纳入GNNs带来了重新设计GNN架构和优化算法以适应因果关系的挑战[16]、[23]、[27]。第三,评估CIGNNs是具有挑战性的,因为数据因果性可能在应用中有所不同或无法获得,这需要定制的评估基准和度量标准[24]、[28]、[29]。
新兴的CIGNN工作已在解决上述挑战方面取得了重要进展。然而,它们主要是从不同的技术角度提高GNNs的可信度。需要进行全面审查以提炼现有努力在开发和评估CIGNNs方面的基本原则,并释放它们的全部潜力。为此,我们提供了一个关于CIGNNs最新进展的全面综述,并在统一的分类框架内提供洞见,展示它们的共性、优势和对图挖掘领域的潜在影响。据我们所知,这是第一次系统性地回顾现有的CIGNNs,本综述的主要贡献如下。
因果性启发的图神经网络
与现有综述的联系。几篇综述讨论了GNN可信度的不同视角,包括超出分布泛化性[11]、鲁棒性[10]、公平性[10]、[12]、可解释性[10]、[14]、[29]和隐私[10]。然而,它们主要关注特定的可信度方面,并简要介绍了几种代表性的基于因果的方法,未能全面检视TGNNs的优势和共性,特别是从因果中心的角度。一些综述关注因果性与图数据的结合。具体来说,Ma等[30]回顾了图结构数据上因果推理的现有工作,但仅限于一种特定类型的因果学习任务。Job等[31]回顾了研究不同因果学习任务的新兴GNNs方法。但它们均未系统地讨论因果学习如何有益于图学习方法的发展。此外,Guo等[32]总结了关于图反事实学习的最新工作。然而,它主要集中在赋予GNNs因果推理能力的研究上。相比之下,我们全面回顾了现有的CIGNNs,强调了它们从各种可信度角度的优势。此外,我们根据它们所配备的因果学习能力对这些工作进行分类,并系统地讨论了采用的关键方法。预期受众。本综述针对两个主要群体:(i) 寻求洞见以增强GNNs因果学习能力进行未来研究的研究者;(ii) 旨在实现CIGNNs以在现实世界应用场景中提高可信度的实践者。综述结构。本综述的其余部分组织如下。第2节介绍了GNN和因果学习的基础知识。在第3节中,我们从因果角度分析了GNNs的可信度风险。基于这些分析,第4节介绍了六组技术,以深入理解潜在的因果机制并实现可信度。
我们还从现有的CIGNNs中发现了一个共性,即它们可信度的提高可归因于为GNNs配备特定的因果学习能力。受此事实启发,我们根据以下两组因果学习能力对现有工作进行分类:(i) 因果推理,以及 (ii) 因果表示学习。属于第一类的工作估计不同图组件以及其他感兴趣的结果(如标签和模型预测)之间的因果效应,并利用这种因果知识来增强GNNs的可信度。另一方面,第二类工作探索了GNNs直接从原始图数据学习因果表示的潜力,并将因果表示学习(CRL)过程无缝整合到GNN系统的标准问题解决流程中。由于将因果发现纳入GNNs的工作有限,因此在第8节作为未来方向的一部分讨论了这一观点。在每个类别内,我们进一步介绍了为GNNs配备相应因果学习能力的主流技术,并解释了这些技术如何有助于缓解不同的可信风险。值得注意的是,不同类别中提出的技术可能被结合起来,使GNNs能够同时处理多个因果学习任务,正如最近研究[25]、[27]所示。因此,我们选择根据它们主要针对的因果学习任务来分类这些工作,以避免混淆。
结论
在本文中,我们提供了对现有CIGNNs作品的全面综述,重点是它们如何通过不同的因果学习能力提升GNNs的可信度。我们首先从因果性的角度分析了GNNs的可信度风险。然后,我们根据它们配备的因果学习能力对现有CIGNNs进行分类,并介绍了每个类别中的代表性因果技术。最后,我们列出了有用的资源,以促进对CIGNNs的进一步探索。
接下来,我们讨论了几个未来研究方向,以促进将因果学习纳入GNNs以增强其可信度。