专栏首页机器学习AI算法工程用Python开始机器学习:推荐算法之推荐矩阵

用Python开始机器学习:推荐算法之推荐矩阵

每个人都会有这样的经历:当你在电商网站购物时,你会看到天猫给你弹出的“和你买了同样物品的人还买了XXX”的信息;当你在SNS社交网站闲逛时,也会看到弹出的“你可能认识XXX“的信息;你在微博添加关注人时,也会看到“你可能对XXX也感兴趣”;等等。

所有这一切,都是背后的推荐算法运作的结果。最经典的关联规则算法是大名鼎鼎的Apriori算法,源自一个超市购物篮的故事:啤酒总是和尿布一起被购买。有兴趣的可以去看看。

本章我们来学习一种最简单的推荐算法:推荐矩阵。虽然简单,但是却被广泛应用着。

1、推荐矩阵

为描述方便,以下我们以“购物推荐”作为背景进行介绍。假设你有个卖商品的网站,拥有每个用户购买每个物品的数据。现在,某个用户A购买了商品a,如何向他推荐他最有可能感兴趣的其他商品呢?

为达到这个目的,通常有两种思路:

1:寻找与该用户(A)购买习惯最为相似的用户(B),认为B购买的物品,A也最有可能感兴趣。

这种情况适用于A已经购买过一些商品,算法能够根据A已经购买的物品作为特征,去匹配与A购买习惯最相近的用户。这种方式是以用户为中心的,推荐出来的商品b可能跟商品a风流马不相及,因此更适合于类似SNS和微博这样的平台,根据用户的已知兴趣集合来向其推荐其他具有相同兴趣的用户;

2:寻找与商品(a)最为相似的商品(b),认为A既然对a感兴趣,也有可能对b感兴趣;

这种情况是以商品为中心的,因此更适合购物推荐这样的场景。

而要计算两个向量“最相似”的程度,有很多方法,如KNN中用到的欧式距离,或者海明距离等。但是欧式距离并不适用于本场合。比如用户A购买了5个商品a,5个商品b,用户B购买了5个商品a,0个商品b,用户C购买了10个商品a,10个商品b,用距离来度量的结果必然是A与B更近。而实际上A跟C是极其相似的。

因此这里,我们介绍皮尔森相关系数(Pearson correlation coefficient)。其定义如下:

该系数定义的是两个向量的线性相关程度,取值范围为[-1,+1],0表示线性无关,绝对值越大线性相关程度越大,正/负表示正/负线性相关。

简单的给几个例子:

[1,2,3],[4,5,6]:1

[1,2,3],[6,5,4]:-1

[1,2,3],[1,2,4]:0.98

[1,2,3],[-1,-11,-111]:-0.9

因此,我们将构造一个矩阵来描述用户购买商品的情况,该矩阵以用户为行、商品为列。要计算某个商品a最相似的商品,我们通过计算商品a所在的列与其他的每一列的皮尔森相关系数,找出最大的前N个推荐给用户即可。

2、测试数据

数据为一份简单的购物清单,每一行对应着用户id——商品id这样的数据对。如下图所示:

[plain] view plaincopy

  1. 1 1 3
  2. 1 2 3
  3. 1 3 3
  4. 1 4 1
  5. 2 1 1
  6. 2 2 1
  7. 2 3 1
  8. 2 4 1
  9. ......

如第一行对应着用户1购买了商品1,数量为3。可以认为该数据是一个稀疏矩阵。该矩阵可视化出来结果如下:

上图中每一行代表一个用户,每一列代表一个商品,对应的颜色不同表示购买的数量不同,深蓝色表示购买数为0。

从图上很容易看出,用户0与用户1同时购买了商品0,1,2,仅仅数量不一样;而商品0和商品1售出的情况一模一样——只被用户0,1,3,8购买过,看上去就像是捆绑销售的一般。

3、代码与分析

[python] view plaincopy

  1. # -*- coding: utf-8 -*-
  2. from matplotlib import pyplot
  3. import scipy as sp
  4. import numpy as np
  5. from matplotlib import pylab
  6. from sklearn.datasets import load_files
  7. from sklearn.cross_validation import train_test_split
  8. from sklearn.metrics import precision_recall_curve, roc_curve, auc
  9. from sklearn.metrics import classification_report
  10. import time
  11. from scipy import sparse
  12. start_time = time.time()
  13. #计算向量test与data数据每一个向量的相关系数,data一行为一个向量
  14. def calc_relation(testfor, data):
  15. return np.array(
  16. [np.corrcoef(testfor, c)[0,1]
  17. for c in data])
  18. # luispedro提供的加速函数:
  19. def all_correlations(y, X):
  20. X = np.asanyarray(X, float)
  21. y = np.asanyarray(y, float)
  22. xy = np.dot(X, y)
  23. y_ = y.mean()
  24. ys_ = y.std()
  25. x_ = X.mean(1)
  26. xs_ = X.std(1)
  27. n = float(len(y))
  28. ys_ += 1e-5 # Handle zeros in ys
  29. xs_ += 1e-5 # Handle zeros in x
  30. return (xy - x_ * y_ * n) / n / xs_ / ys_
  31. #数据读入
  32. data = np.loadtxt('1.txt')
  33. x_p = data[:, :2] # 取前2列
  34. y_p = data[:, 2] # 取前2列
  35. x_p -= 1 # 0为起始索引
  36. y = (sparse.csc_matrix((data[:,2], x_p.T)).astype(float))[:, :].todense()
  37. nUser, nItem = y.shape
  38. #可视化矩阵
  39. pyplot.imshow(y, interpolation='nearest')
  40. pyplot.xlabel('商品')
  41. pyplot.ylabel('用户')
  42. pyplot.xticks(range(nItem))
  43. pyplot.yticks(range(nUser))
  44. pyplot.show()
  45. #加载数据集,切分数据集80%训练,20%测试
  46. x_p_train, x_p_test, y_p_train, y_p_test = \
  47. train_test_split(data[:,:2], data[:,2], test_size = 0.0)
  48. x = (sparse.csc_matrix((y_p_train, x_p_train.T)).astype(float))[:, :].todense()
  49. Item_likeness = np.zeros((nItem, nItem))
  50. #训练
  51. for i in range(nItem):
  52. Item_likeness[i] = calc_relation(x[:,i].T, x.T)
  53. Item_likeness[i,i] = -1
  54. for t in range(Item_likeness.shape[1]):
  55. item = Item_likeness[t].argsort()[-3:]
  56. print("Buy Item %d will buy item %d,%d,%d "%
  57. (t, item[0], item[1], item[2]))
  58. print("time spent:", time.time() - start_time)

输出如下:

Buy Item 0, recommond item 3,2,1 Buy Item 1, recommond item 3,2,0 Buy Item 2, recommond item 3,0,1 Buy Item 3, recommond item 0,1,5 Buy Item 4, recommond item 6,7,8 Buy Item 5, recommond item 0,1,3 Buy Item 6, recommond item 4,7,8 Buy Item 7, recommond item 4,8,6 Buy Item 8, recommond item 4,7,6 time spent: 1.9111089706420898

代码中,我们计算了每一个Item与其他所有item的相关性,然后排序选取最大的前3个作为推荐。

最需要注意的是,真正的应用中,大量的用户与大量的商品之间建立矩阵,计算量是巨大的。从皮尔森相关系数的定义来看,其计算量也是巨大的。因此代码中给了luispedro提供的一种计算相关系数的替换函数,效率能提高不少。

本文分享自微信公众号 - 大数据挖掘DT数据分析(datadw)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2015-11-20

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • Bilibili (B站)200万用户数据爬取与分析(附源码)

    该爬虫仅供学习使用 B站用户爬虫 B站视频爬虫 B站弹幕下载器 文件介绍 bilibili_user.py:爬虫文件 bilibili_user_inf...

    机器学习AI算法工程
  • 很棒的R语言回归模型和方差模型

    对于初学者,利用R语言自带的数据进行练习是不错的选择,下面这些模型便是最好的实例。 1、回归模型 回归模型利用自带的faithful数据来示例,faithful...

    机器学习AI算法工程
  • python实现对招聘信息中数据类岗位的分析与预测

    上次读到关于拉勾网职位分析的文章,该文章主要是对其各个地区的岗位分布及薪资构成做了基本的描述性分析,所以我不免产生了对其继续分析的冲动。本文接下来单从技术岗位出...

    机器学习AI算法工程
  • 研究团队发明新型PCRAM材料,存储速度提升100倍、功耗降低90% | 黑科技

    镁客网
  • 深入浅出 RunLoop(五):RunLoop 与 NSTimer

    如果我们是通过以下方法创建的NSTimer,是自动添加到RunLoop的默认模式下的

    师大小海腾
  • 雷潮教育第一期班C#课程阶段总结(第二周)

    雷潮
  • docker镜像的使用

    docker镜像使用 查看镜像 # docker images REPOSITORY TAG IMAGE I...

    零月
  • ANSYS里的对称与反对称约束

    首先回顾一下结构力学里的概念:在平面内绕对称轴旋转180度,荷载的作用点重合,作用方向相反便是反对称荷载,如果荷载的作用点重合,作用方向相同,便是正对称荷载。通...

    fem178
  • 【干货】Jenkins 持续集成实现系统自动化构建、测试及部署

    Jenkins 是一款流行的开源持续集成(Continuous Integration)工具,广泛用于项目开发,具有自动化构建、测试和部署等功能。本文以 Cen...

    IT技术小咖
  • Linux高精度定时器hrtimer使用实例

    随着内核不断更新演进,内核对定时器的分辨率要求越来越高。硬件的高速发展也逐渐能够满足内核的这一要求,因此内核针对硬件提供的便利,开始设计了更高分辨率的定时器(h...

    开源519

扫码关注云+社区

领取腾讯云代金券