❝「NeurIPS 2020」 的接收论文《Graph Meta Learning via Local Subgraphs》,「G-META 是第一个使用局部子图来进行元学习的模型。」 ❞
目前流行的图学习方法需要丰富的标签和边信息进行学习。「当新任务的数据稀缺时,元学习允许我们从以前的经验中学习」,并形成急需的归纳偏见,以便快速适应新任务。
此文介绍了「G-META,一种新的图的元学习方法:」
G-META 在理论上是合理的,因为「特定预测的证据可以在目标节点或边周围的局部子图中找到。」
现有方法是专门为特定的图元学习问题和特定的任务设计的专门技术。虽然这些方法为 GNN 中的元学习提供了一种很有前途的方法,但它们的特定策略没有很好的伸缩性,也不能扩展到其他图的元学习问题(图1)。
图1:图的元学习问题。 A.元学习器通过观察同一图中的其他标签集来对看不见的标签集进行分类。 B.元学习器通过学习具有相同标签集的其他图来学习看不见的图。 C.元学习器通过学习多个图上的其他标签集来对看不见的标签集进行分类。
「与现有的方法不同,G-META 可以解决上述三个问题,并且还适用于链接预测」
在7个数据集和9个基线方法上的实验表明,「G-META 的性能比现有方法高出16.3%」。
与以前的方法不同,G-META 可以在具有挑战性的、few-shot learning 的学习环境中成功地学习,这些学习环境需要将其推广到全新的图形和从未见过的标签中。
最后,G-META 可扩展到大型图,文章在包含1840个图的新 Tree-of-Life 数据集中进行了演示,这比以前工作中使用的图的数量增加了两个数量级。
个元训练任务,并为元任务中的节点动态提取局部子图。
,(2)来自支撑集中的子图是最小批处理的,并且被馈送到由
参数化的 GNN 中。
,以及(6)反向传播以更新 GNN 参数。
馈送到更新后的 GNN 中以(8)生成查询质心嵌入。
的查询损失
。
更新步骤重复步骤(2-9)。
开始,对其他
个采样任务重复相同的过程。
。然后,对另一批任务进行采样,重复步骤(1-10)。
对 GNN 重复步骤(1-9),这使得能够对看不见的任务进行泛化。
数据集统计信息。Fold-PPI 和 Tree-of-Life是此工作中引入的新数据集
合成数据集上的图元学习性能:
真实数据集上的图元学习性能: