前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ICLR'23 UnderReview | LightGCL: 简单而有效的图对比学习推荐系统

ICLR'23 UnderReview | LightGCL: 简单而有效的图对比学习推荐系统

作者头像
枫桦
发布2022-12-17 17:00:20
7970
发布2022-12-17 17:00:20
举报
文章被收录于专栏:AI算法札记AI算法札记

上周末梳理了NeurlPS'22中推荐系统相关论文,详见NeurlPS'22 推荐系统论文梳理。本想精读其中某篇,但是并没有公开。最近知乎刷到很多ICLR'23的总结文章,我把他们汇总在ICLR'23 论文整理合辑一文中(https://zhuanlan.zhihu.com/p/576413129),含扩散模型、图网络、推荐系统、强化学习、知识蒸馏、NLP等多个方向。

本文对其中的推荐系统论文 Simple Yet Effective Graph Contrastive Learning for Recommendation 一文进行解读。论文可在公众号后台回复 ICLR-2023-RecSys 获取,所有论文都是按照该方式存档。本文代码也已公开在https://anonymous.4open.science/r/LightGCL/。

1. 论文摘要

大多数现有的图对比学习方法要么在用户-项目交互图上执行随机增强 (例如节点/边扰动,node/edge perturbation),要么依赖基于启发式的增强技术 (例如用户聚类)来生成对比视图。我们认为这些方法不能很好地保留内在的语义结构,并且容易受到噪声扰动的影响。

本文提出了一种简单而有效的图对比学习范式 LightGCL,以缓解那些对基于对比学习的推荐器的通用性和鲁棒性产生负面影响的问题。我们的模型专门利用奇异值分解 (SVD,singular value decomposition)进行对比增强,从而通过全局协作关系建模 (global collaborative relation modeling)实现无约束的结构细化 (unconstrained structure refinement)。在几个基准数据集上进行的实验表明,我们的方法显着提高了现有技术的性能。进一步的分析表明 LightGCL在数据稀疏和流行度偏差的鲁棒性方面的优越性。

2. 研究动机

图神经网络通过聚合邻居表示提取局部协同信号,在基于图的推荐系统中展示出优越的效果。大多数基于 GNN 的协同过滤模型都遵循监督学习范式,然而,实际推荐场景中,在有限的交互数据中学习高质量的用户和项目表示时会面临数据稀疏问题。因此,对比学习被引入推荐任务以进行数据增强。

当前大多数图对比学习 (GCL)方法采用基于启发式的对比视图生成器来最大化输入正对之间的互信息并推开负例。为了构建扰动视图,SGL通过使用随机增强策略 (例如节点丢弃和边扰动)破坏用户-项目交互图的结构信息来生成正视图的节点对。SimGCL提供了带有随机噪声扰动的嵌入增强。为了识别节点 (用户和项目)的语义邻居, HCCF和NCL追求图结构相邻节点和语义邻居之间的一致表示。

尽管它们很有效,但最先进的对比学习推荐系统仍存在几个固有的局限性:i) 带有随机扰动的图增强可能会丢失有用的结构信息,从而误导对比表示学习;ii) 启发式引导表示对比方案的成功很大程度上建立在视图生成器上,这限制了模型的通用性并且容易受到嘈杂的用户行为数据的影响;iii)当前大多数基于GNN的对比推荐器都受到无法区分表示的过平滑问题的限制。

鉴于上述限制和挑战,本文提出简单而有效的增强方法 LightGCL 重新审视图对比学习范式进行推荐。在该模型中,图增强由奇异值分解 (SVD) 指导,不仅提炼用户-项目交互的有用信息,而且还将全局协作上下文注入对比学习的表示对齐中。强大的图对比学习范式可以很好地保留用户-项目交互的重要语义,而不是生成两个手工制作的增强视图,这使我们的自增强表示 (self-augmented representations)能够反映用户独特的偏好和跨用户的全局依赖关系。

3. 研究方法

微信公式排版支持太差,要看球赛,这部分直接贴图,如果视觉效果不好可以点击阅读原文查看知乎文章。

本文提出的LightGCL 是一种轻量级的图对比学习范式,如图 1 所示,它通过全局协作关系增强来增强图对比学习,以实现有效的用户表示。

局部图依赖建模 (Local Graph Dependency Modeling)
高效全局协同关系学习 (Efficient Global Collaborative Relation Learning)
简化的局部-全局对比学习 (Simplified Local-Global Contrastive Learning)

4. 实验结果

实验部分主要是回答以下5个问题:

  • 与各种 SOTA 基线相比,LightGCL 在不同数据集上的表现如何?
  • 轻量级图对比学习如何提高模型效率?
  • 我们的模型在数据稀疏、流行度偏差和过平滑方面表现如何?
  • 局部-全局对比学习对我们模型的性能有何贡献?
  • 不同的参数设置如何影响我们的模型性能?
实验设置

作者在五个真实世界数据集上评估模型和基线:

  • Yelp (29,601个用户,24,734个项目,1,517,326个交互) : 从 Yelp 平台上的评分交互中收集的数据集;
  • Gowalla (50,821个用户,57,440个项目,1,069,128次交互) : 包含从 Gowalla 平台收集的用户签到记录的数据集;
  • ML-10M (69,878个用户,10,195个项目,9,988,816次交互) : 用于协同过滤的著名电影评分数据集;
  • Amazon-book (78,578个用户,77,801个项目,3,190,224次交互) : 由用户对从亚马逊收集的书籍的评分组成的数据集;
  • 天猫 (47,939名用户,41,390件商品,2,357,450次互动) : 一个电子商务数据集,包含用户在天猫平台上不同产品的购买记录。

作者将数据集分为训练集、验证集和测试集,比例为 7:2:1;采用 Recall@N 和NDCG@N,其中 N = {20, 40} 作为评估指标。

Baseline方法包括:

  • MLP增强的协同过滤:NCF
  • 基于GNN的协同过滤:GCCF、LightGCN
  • 解耦图协同过滤:DGCF
  • 基于超图的协同过滤:HyRec
  • 自监督学习推荐系统:MHCN、SGL、HCCF、SHT、SimGCL。
RQ1:性能验证
  • 对比学习主导:对比学习类方法取得更好的效果,这可能归因于对比学习 学习均匀分布的embedding的有效性[3]。
  • 对比学习增强:我们的方法始终优于所有对比学习基线。我们将这种性能改进归因于通过注入全局协同上下文信号来有效增强图对比学习。其他基于对比学习的推荐器(例如,SGL、SimGCL 和 HCCF)很容易受到嘈杂的交互信息的影响,并产生误导性的自监督信号。
RQ2:效率研究

由于额外视图的构建和训练期间对它们执行的卷积操作,GCL 模型通常遭受高计算成本的困扰。然而,SVD 重建图的低秩性质和简化的 CL 结构使我们的 LightGCL训练非常高效。我们分析了我们模型的预处理和每批训练的复杂性,并与三个竞争基线进行了比较,如表中所示。

RQ3:抵抗数据稀疏和流行度偏差

为了评估我们的模型在缓解数据稀疏性方面的稳健性,我们将稀疏用户按交互程度进行分组,并在 Yelp 和 Gowalla 数据集上计算每组的 Recall@20。从图中可以看出,HCCF 和 SimGCL 的性能因数据集而异,但我们的 LightGCL 在所有情况下始终优于它们。特别是,我们的模型在极其稀疏的用户组(< 15 个交互)上表现得非常好,因为这些用户的 Recall@20 并不比整个数据集低很多(在 Gowalla 上甚至更高)。下图左为数据稀疏比较,右为流行度偏差比较。

RQ3:过平滑和过均匀平衡
RQ4:消融实验
RQ4:Case分析
RQ5:超参分析

5. 总结展望

本文通过设计一个轻量级且稳健的图对比学习框架来增强推荐系统。 具体来说,提出了一种有效且高效的对比学习范式 LightGCL,用于推荐系统中的图增强。 通过注入全局协作关系,该模型可以减轻不准确的对比自监督信号带来的问题。我们的主要发现表明,我们的图增强方案在抵抗数据稀疏性和流行度偏差方面表现出很强的能力。 大量实验表明,我们的模型在几个公共评估数据集上取得了新的最先进的结果。 在未来的工作中,我们计划探索将随意分析纳入我们的轻量级图对比学习模型的潜力,以增强推荐系统,减少数据增强的混淆效应。

6. 参考文献

[1] Lianghao Xia, Chao Huang, Yong Xu, Jiashu Zhao, Dawei Yin, and Jimmy Xiangji Huang. Hypergraph contrastive collaborative filtering. In Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR 2022, Madrid, Spain, July 11-15, 2022., 2022a.

[2] Nathan Halko, Per-Gunnar Martinsson, and Joel A Tropp. Finding structure with randomness: Probabilistic algorithms for constructing approximate matrix decompositions. SIAM review, 53 (2):217–288, 2011.

[3] Junliang Yu, Hongzhi Yin, Xin Xia, Tong Chen, Lizhen Cui, and Quoc Viet Hung Nguyen. Are graph augmentations necessary? simple graph contrastive learning for recommendation. In International Conference on Research and Development in Information Retrieval (SIGIR), pp. 1294–1303, 2022.

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-10-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI算法札记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 局部图依赖建模 (Local Graph Dependency Modeling)
  • 高效全局协同关系学习 (Efficient Global Collaborative Relation Learning)
  • 简化的局部-全局对比学习 (Simplified Local-Global Contrastive Learning)
  • 实验设置
  • RQ1:性能验证
  • RQ2:效率研究
  • RQ3:抵抗数据稀疏和流行度偏差
  • RQ3:过平滑和过均匀平衡
  • RQ4:消融实验
  • RQ4:Case分析
  • RQ5:超参分析
相关产品与服务
智能数据分析
腾讯云智能数据分析 Intellectual Data Analysis 是新一代云原生大数据敏捷分析解决方案。产品具备存算分离、动态扩缩容等特点,并内置事件、转化、留存、行为路径等成熟分析模型,提供高可用、低成本的全场景敏捷分析服务,可同时满足数据分析师、数据开发工程师和业务决策人的关键分析需求,帮助企业大幅降低数据分析成本,支撑业务更高效决策。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档