前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >论文笔记 : Dual Neural Personalized Ranking

论文笔记 : Dual Neural Personalized Ranking

作者头像
张小磊
发布2020-04-20 15:41:08
7540
发布2020-04-20 15:41:08
举报

作者:阿瑟_f7b5 链接:www.jianshu.com/p/0d959d2e11e7 来源:简书

本文是自己在推荐系统研究中研读的论文翻译及解读,本篇笔记非标准译文,其中包含了笔者自己对问题的部分理解,仅供参考,欢迎学习交流。

背景

隐式反馈数据是推荐中常见的数据类型,但是由于其固有的稀疏和单一类(one-class 0/1 )特性,很难从中完整发现有效的用户/物品特征。

文中提到:现有的针对隐式反馈的推荐模型往往存在数据稀疏问题,通常使用矩阵分解获取潜在用户/物品表示;此外,隐式反馈只提供了已知的正向数据,而未知反馈是模糊的(即数据模糊,不确定是正还是负例)。因此,有必要区分负反馈和未知反馈。关于隐式反馈,可以看https://www.jianshu.com/p/d8173f29e4f8

本文作者提出DualNPR(双NPR) ,以统一的形式实现对用户和物品侧的逐对排序(pairwise ranking 两个PR)。

本文主要的创新点包括:

  1. DualNPR利用用户和物品的成对排名发现用户和物品之间的真实相关性,缓解了数据稀疏问题。不需要额外的辅助信息,仅需要用户-物品交互矩阵。
  2. 其基于深度矩阵分解Deep Matrix Factorization来捕获用户/物品表示的可变性。特别是,它选择原始用户/物品向量作为输入,学习潜在用户/物品表示。
  3. 使用动态负采样方法提升了推荐效果。

相关知识

推荐中的排序最经典的要数BPR(Bayesian Personalized Ranking):

BPR

BPR算法中,将任意用户u对应的物品进行标记,如果用户u在同时有物品i和j的时候点击了i,那么就得到了一个三元组

,它表示对用户u来说,i的排序要比j靠前。

基于贝叶斯,BPR有两个假设:一、每个用户之间的偏好行为相互独立,即用户u在商品i和j之间的偏好和其他用户无关;二、同一用户对不同物品的偏序相互独立,也就是用户u在商品i和j之间的偏好和其他的商品无关。为了便于表述,我们用

符号表示用户u的偏好,

可以表示为:

在排序关系的基础上,BPR的优化目标是最大化后验概率

省略部分推导 具体的总结可见:https://www.cnblogs.com/pinard/p/9128682.html 在实际模型中,对应到相应的Loss:

其中为sigmoid函数,上式即为常见的MF-BPR模型

NPR

那么所谓的NPR的概念则是在BPR的基础上,加上神经网络

对于模型输入,通过embedding矩阵 ,这些参数用来转换得到用户和物品的向量表示,是模型训练的目标参数

对于模型预测而言,即在原来的基础上加上非线形操作

,而具体的目标函数与上面BPR所列相同,整个过程类似于Deep Matrix Factorization,虽然NPR相较于BPR,效果有很大的提升,但它并没有解决以下问题:

(1)物品侧三元组也是一个有用的训练资源,NPR并没有利用 (2)更广义的DMF可以用来表示潜在的用户/物品向量, (3)负采样是学习BPR及其变体的关键组成部分之一,而NPR并没有进行讨论/改进 这一点在论文中有点牵强

DualNPR 模型设计

核心思想就是双侧设计,同时对用户侧和物品侧的排序关系进行考虑,围绕这个思想,作者进行了一下设计:

输入层设计

对于用户和物品采用one-hot编码,其实应该叫multi-hot编码

对于例子 用户

比起

更喜欢

,有7个用户,5个物品的话,

表示为:

相应的形式化表示为:

该部分表示成为用户/物品的raw vector表示,为了方便后续模型的计算处理,对两种不同维度的向量需要做填充操作

Embedding

在NPR和DMF的基础上,将经过多层隐含层的处理,模型中采用了共享权重的设计,可以加速训练,但是否有利于提高模型效果,原文并未给出解释

Scoring Layer

具体的评分函数则比较简单,有多种设计方式:

而双层设计的思想则体现在模型的输出上,包含两个输出:

那么相应的Loss对应如下,包含用户侧误差项和物品侧误差项:

具体模型使用/预测的时候,只用计算即可

模型训练

动态负采样 Dynamic Negative Sampling

模型训练中所需数据为三元组形式<u,i,j>,<i,u,v>,需要通过负采样获取负例,常见做法是从未交互过的物品/用户中等概率选取一定数量的样本作为负样本,本文提出使用动态负采样,对负例计算其排序重要程度,在此基础上计算其被采样概率,使得同一三元组中的正负样例差异增大,加快训练提升效果。

该部分细节仍在学习理解中,后续更新补充

整体流程如下:

实验结果

部分实验结果如下:

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-02-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 背景
  • 相关知识
    • BPR
      • NPR
      • DualNPR 模型设计
        • 输入层设计
          • Embedding
            • Scoring Layer
            • 模型训练
              • 动态负采样 Dynamic Negative Sampling
              • 实验结果
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档