首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

度量分解:矩阵分解之下的推荐(三)

实验

由于评分预测和物品排序一般都是使用不同的评估标准分别研究的, 因此, 作者分别在这两个任务上进行了探究. 设计本实验来验证提出方法主要是为了回答以下三个研究问题:

在物品排序中, 是否优于神经网络和度量学习? -相较于基于 以及基于神经网络的模型, 能否实现更精确的评分预测? 超参如何影响模型的性能?

物品排序的评估

数据集描述. 为了评估 在隐式反馈中的排序性能, 作者们在下面四个真实的数据集上组织了实验, 具体的隐式反馈处理方式可以参考资料 中的方法:

Yahoo研究数据集: 由两个数据集组成- 雅虎电影和雅虎音乐. 两个数据集均由Yahoo Research Alliance Webscope program提供. 音乐偏好数据集从雅虎音乐服务中收集.

FilmTrust: 是 等人从一个电影分享和评分网站上爬取的数据. 本文中没有使用到可信度信息.

EachMovie: EachMovie 是推荐评估中广泛使用到的标准电影数据集.

度量指标. 为了评估排序的精准性和质量, 本文采用了五种广泛使用的指标:

: 中出现的用户喜欢的物品占用户喜欢物品的百分比:

: 中召回的物品占用户喜欢的物品的比例:

( , 平均精度均值): 一种比较受欢迎的度量方式, 计算方式如下:

( ): 第一个匹配的结果得分为 , 第二个为 , 以此类推, 第 个为 ; 最终的分数为所有得分之和,

( ): 信息检索领域的度量方式, 其中位置通过对数进行计算. 假设每个用户 从被通缉件的物品 中有一个"增加": , 那么对于列表 物品的平均 ( )定义如下:

其中, 对数基数是一个游离的参数, 一般在 到 之间. 一般使用一个 为底的对数来保证所有位置都有降权. 是 归一化后的值:

其中, 是理想的 .

更多详细的指标可以参考资料 .

基线方法: 在本文中. 作者将 和下面经典/先进的基线方法进行了比较:

BPR: 这是一个通用的成对优化原则, 非常适用于 . 优化准则目标在于最大化负样本和正样本之间的区别(具体细节参考资料 )

WRMF: 一个用于隐式反馈非常高效的排序模型. 使用点积来对用户/物品交互模式进行建模(具体细节参考资料 )

NeuMF: 将多层感知机与泛化的矩阵分解结合在一起, 然后使用一个神经层而不是点积来计算排序分数. 它将排序问题当做一个分类任务, 然后通过最小化交叉熵损失优化模型(具体细节参考资料 )

CDAE: 从交互矩阵和自动编码机中学习用户和物品的分布表示. 利用降噪技术来提高泛化能力以避免过拟合. 在这里, 作者们使用了逻辑回归来优化网络, 因为在原始论文中, 该方法实现了最佳性能(具体细节参考资料 )

CML: 是一个有竞争力的基线. 在这里, 作者们使用了两种类型的损失: 成对的 以及 ( , 加权近似排序成对损失)来训练模型. 注意: 由于对负样本的预计算, 损失非常占用计算资源(具体细节参考资料 )

总的说来, 和 都是基于矩阵分解的模型; 和 都是基于神经网络的模型; 和 则是基于度量学习的模型.

实现细节: 对于 和 , 作者们采用了Mymedialite的实现, 以及 作者提供的源码. 作者们使用 实现了其它所有的模型. 数据方面, 将数据集随机分成五份, 使用 的交互数据作为训练集, 而将余下的 当作测试集, 然后比较平均结果. 使用点格检索方法来确定超参, 以保证所有的基线方法都实现了它们最佳的性能. 和 中用户/物品向量的维度在 之间调整. 的学习率设置为 . 和 的边缘设置在 之中. 距离扩展因素 在 中设置为 , 和 中设置为 , 而 中设施为 . 所有数据集的 均设置为 . 中的置信级别 设置为 , 而其它数据集则设置为 . 对排序效果的影响不是很大, 因此在物品排序任务中没有使用.

性能比较: 多个标准排序度量的排序性能展示在表 中. 观察可以获得以下几个发现:

首先, 提出的方法在所有数据集中均能实现最佳的性能. 验证了 在物品排序上的高效性, 整体的性能与 模型相比整整提高了

尽管 和 都是基于度量学习的方法, 仍然优于 高达 , 这就意味着: 可以更精确地反映出用户和物品之间的距离关系

基于欧式距离的模型( 和 )效果优于基于点乘的推荐系统和神经网络模型, 与之前论文中的结果一致, 这也验证了使用欧式距离来获取交互模式的优越性

基于神经网络的模型 是一个非常优秀的基线. 一般会由于 和 , 而 的效果看起来不如 . 但是, 在与 之间仍然有一个巨大的性能差异, 这也意味着: 增加非线性还是不够的.

表 不同方法在四个数据集中物品排序任务的 , , , 以及 的性能比较. 最佳的性能为加粗的数据, 而次优的性能下面有下划线

总的说来, 这些观察体现了从度量向量空间分解角度来考虑推荐问题的优势. 足以回答前面提出的第一个问题: 就物品排序而言, 由于神经网络的方法和度量学习的方法.

参考资料

机器学习中的数学基础:向量篇

Hulu机器学习问题与解答系列 | 第五弹:余弦距离

Neural Collaborative Filtering

Matrix Factorization Techniques for Recommender Systems

Probabilistic Matrix Factorization

Bayesian probabilistic matrix factorization using Markov chain Monte Carlo

Bayesian Personalized Ranking from Implicit Feedback

Collaborative Filtering for Implicit Feedback Datasets

Neural Network Matrix Factorization

Collaborative Denoising Auto-Encoders for Top-N Recommender Systems

Deep Learning based Recommender System: A Survey and New Perspectives

Collaborative Metric Learning

Distance Metric Learning for Large Margin Nearest Neighbor Classification

机器学习中正则化项L1和L2的直观理解

Comparisons Instead of Ratings: Towards More Stable Preferences

Evaluating Recommendation Systems

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181029G0021J00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券