前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >WWW2022 | 基于交叉成对排序的无偏推荐算法

WWW2022 | 基于交叉成对排序的无偏推荐算法

作者头像
张小磊
发布2022-05-24 12:42:03
4560
发布2022-05-24 12:42:03
举报
文章被收录于专栏:机器学习与推荐算法

现有大多数推荐系统都是对观测到的交互数据进行优化,而这些数据受到之前曝光机制的影响,会表现出许多偏差,比如流行偏差。经常使用的基于pointwise的二元交叉熵和pairwise的贝叶斯个性化排序损失函数,并不是专门设计来考虑观测数据的偏差的。因此,对损失进行优化的模型仍然会存在数据偏差,甚至会放大数据偏差。例如,少数受欢迎的商品占据了越来越多的曝光机会,严重损害了小众物品的推荐质量。

在接下来介绍的这篇工作中,其开发了一种新的学习范式CPR,全称为Cross Pairwise Ranking,其实现了在不知道曝光机制的情况下不带偏见的推荐。与反倾向评分(IPS)不同,该工作改变了样本的损失项,并创新性地对多次观察到的交互作用进行抽样,并将其作为预测的组合形成损失。另外还在理论上证明了这种方法抵消了用户/物品倾向对学习的影响,消除了曝光机制引起的数据偏差的影响。对IPS有利的是,所提出的CPR确保每个训练实例的无偏学习,而不需要设置倾向分数。实验结果表明,该方法在模型泛化和训练效率方面均优于最新的去偏方法。

论文地址: http://staff.ustc.edu.cn/~hexn/papers/www22-cpr.pdf

Github地址: https://github.com/Qcactus/CPR

1 Motivation

现有方法的损失函数(例如最常用的二元交叉熵和成对贝叶斯个性化排名)并非旨在考虑观测数据中的偏差。因此,针对这类损失进行优化的模型将继承数据偏差,甚至会放大偏差。因此,作者设计了一种新的学习范式命名为,从而在不知道曝光机制的同时实现无偏推荐。

2 Preliminaries

2.1 Biasedness of Pointwise and Pairwise Loss

作者指出了现有的pointwise损失和pairwise损失都是有偏的。

论文中以二元交叉熵为例。

其中是观测到的交互和未观测到的交互的总集合,表示用户对物品有过交互,反之,表示用户和物品之间的预测分数。当时,越大越好,相反,越小越好,即:

为了极大化观测的概率,作者对按照以下条件排序:

由于

因此上述公式改写为:

通过对比可发现,pointwise损失实际上是用去拟合,而越流行的物品越大,因为流行物品曝光机率更高。因此pointwise损失是有偏的。

证明pairwise损失有偏与pointwise类似,具体细节可参照原文。

3 Method

3.1 CPR Loss

其中为训练数据。CPR损失鼓励两个正样本的预测分数之和高于两个负样本的预测分数之和,即:

作者基于曝光概率可以分解为用户倾向,物品倾向和用户-物品相关性这一假设,证明了CPR损失的无偏性。这一假设可形式化的表述为

基于这一假设,期望的排序可以改写为:

因此,

通过对上述四项的组合得到

因此CPR损失是无偏的。

3.2 Extending to More Interactions

上述对于CPR损失的讨论仅限于包含两组观测到的正样本,以下将其拓展到多组正样本:

作者提出了以一种动态采样方法去构建样本集合,具体流程如下:

3.3 Discussion

作者在论文中还讨论了CPR与基于IPS的方法,setwise排序的不同,具体细节参照论文。

4 Experiments

Datasets

Metrics

Recall@K, NDCG@K and ARP@K

Baselines

BPR, Multi-VAE, CausE, Rel-MF, UBPR, DICE

Results

可以看出,在三个数据集上,CPR都取得了明显的性能提升。

CPR方法相较于其他方法能够更早收敛到最优,训练时间也相较于baseline更短。

可以看出物品被推荐的概率随着组ID的增大而减小,说明流行物品被推荐的概率逐渐降低。

可以看出CPR损失不论应用在哪些backbone上,都明显优于baseline。

更多实验细节参考原文。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-04-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 Motivation
  • 2 Preliminaries
    • 2.1 Biasedness of Pointwise and Pairwise Loss
    • 3 Method
      • 3.1 CPR Loss
        • 3.2 Extending to More Interactions
          • 3.3 Discussion
          • 4 Experiments
            • Datasets
              • Metrics
                • Baselines
                  • Results
                  领券
                  问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档