首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

GNN有因果性么?看这篇综述论文

图神经网络(GNNs)已经成为捕捉复杂依赖关系的强大表示学习工具,在多样化的图结构数据中表现出色。尽管在广泛的图挖掘任务中取得了成功,但GNNs也引起了关于其可信度的严重担忧,包括对分布变化的敏感性、对特定人群的偏见,以及缺乏可解释性。最近,将因果学习技术融入GNNs激发了许多开创性的研究,因为大多数可信度问题可以通过捕捉数据的底层因果性而非表面相关性来缓解。在这篇综述中,我们提供了对受因果性启发的GNNs最新研究努力的全面回顾。具体来说,我们首先通过因果性的视角介绍现有GNN模型的关键可信风险。此外,我们基于它们所配备的因果学习能力类型,即因果推理和因果表示学习,介绍了受因果性启发的GNNs(CIGNNs)的分类。除此之外,我们系统地讨论了每个类别中的典型方法,并展示了它们如何减轻可信风险。最后,我们总结了有用的资源,并讨论了几个未来的方向,希望能为这一新兴领域的新研究机会提供启示。

01

火爆的机器学习和人工智能,为何在金融业四处碰壁?

在2008年金融危机期间,银行业认识到,他们的机器学习算法是基于有缺陷的假设。 因此,金融体系监管机构决定需要额外的控制措施,并引入了对银行和保险公司进行“模式风险”管理的监管要求。 银行也必须证明他们理解他们所使用的模型,所以,令人遗憾但是可以理解的是,他们有意地限制了他们技术的复杂性,采用了简单和可解释性高于一切的广义线性模型。 如果你想建立对机器学习的信任,可以尝试像人一样对待它,问它同样的问题。 为了信任AI和机器学习提供的建议,来自所有行业的企业需要努力更好地理解它。 数据科学家和博士不应该是唯

06
领券