用Python开始机器学习:推荐算法之推荐矩阵

每个人都会有这样的经历:当你在电商网站购物时,你会看到天猫给你弹出的“和你买了同样物品的人还买了XXX”的信息;当你在SNS社交网站闲逛时,也会看到弹出的“你可能认识XXX“的信息;你在微博添加关注人时,也会看到“你可能对XXX也感兴趣”;等等。

所有这一切,都是背后的推荐算法运作的结果。最经典的关联规则算法是大名鼎鼎的Apriori算法,源自一个超市购物篮的故事:啤酒总是和尿布一起被购买。有兴趣的可以去看看。

本章我们来学习一种最简单的推荐算法:推荐矩阵。虽然简单,但是却被广泛应用着。

1、推荐矩阵

为描述方便,以下我们以“购物推荐”作为背景进行介绍。假设你有个卖商品的网站,拥有每个用户购买每个物品的数据。现在,某个用户A购买了商品a,如何向他推荐他最有可能感兴趣的其他商品呢?

为达到这个目的,通常有两种思路:

1:寻找与该用户(A)购买习惯最为相似的用户(B),认为B购买的物品,A也最有可能感兴趣。

这种情况适用于A已经购买过一些商品,算法能够根据A已经购买的物品作为特征,去匹配与A购买习惯最相近的用户。这种方式是以用户为中心的,推荐出来的商品b可能跟商品a风流马不相及,因此更适合于类似SNS和微博这样的平台,根据用户的已知兴趣集合来向其推荐其他具有相同兴趣的用户;

2:寻找与商品(a)最为相似的商品(b),认为A既然对a感兴趣,也有可能对b感兴趣;

这种情况是以商品为中心的,因此更适合购物推荐这样的场景。

而要计算两个向量“最相似”的程度,有很多方法,如KNN中用到的欧式距离,或者海明距离等。但是欧式距离并不适用于本场合。比如用户A购买了5个商品a,5个商品b,用户B购买了5个商品a,0个商品b,用户C购买了10个商品a,10个商品b,用距离来度量的结果必然是A与B更近。而实际上A跟C是极其相似的。

因此这里,我们介绍皮尔森相关系数(Pearson correlation coefficient)。其定义如下:

该系数定义的是两个向量的线性相关程度,取值范围为[-1,+1],0表示线性无关,绝对值越大线性相关程度越大,正/负表示正/负线性相关。

简单的给几个例子:

[1,2,3],[4,5,6]:1

[1,2,3],[6,5,4]:-1

[1,2,3],[1,2,4]:0.98

[1,2,3],[-1,-11,-111]:-0.9

因此,我们将构造一个矩阵来描述用户购买商品的情况,该矩阵以用户为行、商品为列。要计算某个商品a最相似的商品,我们通过计算商品a所在的列与其他的每一列的皮尔森相关系数,找出最大的前N个推荐给用户即可。

2、测试数据

数据为一份简单的购物清单,每一行对应着用户id——商品id这样的数据对。如下图所示:

[plain] view plaincopy

  1. 1 1 3
  2. 1 2 3
  3. 1 3 3
  4. 1 4 1
  5. 2 1 1
  6. 2 2 1
  7. 2 3 1
  8. 2 4 1
  9. ......

如第一行对应着用户1购买了商品1,数量为3。可以认为该数据是一个稀疏矩阵。该矩阵可视化出来结果如下:

上图中每一行代表一个用户,每一列代表一个商品,对应的颜色不同表示购买的数量不同,深蓝色表示购买数为0。

从图上很容易看出,用户0与用户1同时购买了商品0,1,2,仅仅数量不一样;而商品0和商品1售出的情况一模一样——只被用户0,1,3,8购买过,看上去就像是捆绑销售的一般。

3、代码与分析

[python] view plaincopy

  1. # -*- coding: utf-8 -*-
  2. from matplotlib import pyplot
  3. import scipy as sp
  4. import numpy as np
  5. from matplotlib import pylab
  6. from sklearn.datasets import load_files
  7. from sklearn.cross_validation import train_test_split
  8. from sklearn.metrics import precision_recall_curve, roc_curve, auc
  9. from sklearn.metrics import classification_report
  10. import time
  11. from scipy import sparse
  12. start_time = time.time()
  13. #计算向量test与data数据每一个向量的相关系数,data一行为一个向量
  14. def calc_relation(testfor, data):
  15. return np.array(
  16. [np.corrcoef(testfor, c)[0,1]
  17. for c in data])
  18. # luispedro提供的加速函数:
  19. def all_correlations(y, X):
  20. X = np.asanyarray(X, float)
  21. y = np.asanyarray(y, float)
  22. xy = np.dot(X, y)
  23. y_ = y.mean()
  24. ys_ = y.std()
  25. x_ = X.mean(1)
  26. xs_ = X.std(1)
  27. n = float(len(y))
  28. ys_ += 1e-5 # Handle zeros in ys
  29. xs_ += 1e-5 # Handle zeros in x
  30. return (xy - x_ * y_ * n) / n / xs_ / ys_
  31. #数据读入
  32. data = np.loadtxt('1.txt')
  33. x_p = data[:, :2] # 取前2列
  34. y_p = data[:, 2] # 取前2列
  35. x_p -= 1 # 0为起始索引
  36. y = (sparse.csc_matrix((data[:,2], x_p.T)).astype(float))[:, :].todense()
  37. nUser, nItem = y.shape
  38. #可视化矩阵
  39. pyplot.imshow(y, interpolation='nearest')
  40. pyplot.xlabel('商品')
  41. pyplot.ylabel('用户')
  42. pyplot.xticks(range(nItem))
  43. pyplot.yticks(range(nUser))
  44. pyplot.show()
  45. #加载数据集,切分数据集80%训练,20%测试
  46. x_p_train, x_p_test, y_p_train, y_p_test = \
  47. train_test_split(data[:,:2], data[:,2], test_size = 0.0)
  48. x = (sparse.csc_matrix((y_p_train, x_p_train.T)).astype(float))[:, :].todense()
  49. Item_likeness = np.zeros((nItem, nItem))
  50. #训练
  51. for i in range(nItem):
  52. Item_likeness[i] = calc_relation(x[:,i].T, x.T)
  53. Item_likeness[i,i] = -1
  54. for t in range(Item_likeness.shape[1]):
  55. item = Item_likeness[t].argsort()[-3:]
  56. print("Buy Item %d will buy item %d,%d,%d "%
  57. (t, item[0], item[1], item[2]))
  58. print("time spent:", time.time() - start_time)

输出如下:

Buy Item 0, recommond item 3,2,1 Buy Item 1, recommond item 3,2,0 Buy Item 2, recommond item 3,0,1 Buy Item 3, recommond item 0,1,5 Buy Item 4, recommond item 6,7,8 Buy Item 5, recommond item 0,1,3 Buy Item 6, recommond item 4,7,8 Buy Item 7, recommond item 4,8,6 Buy Item 8, recommond item 4,7,6 time spent: 1.9111089706420898

代码中,我们计算了每一个Item与其他所有item的相关性,然后排序选取最大的前3个作为推荐。

最需要注意的是,真正的应用中,大量的用户与大量的商品之间建立矩阵,计算量是巨大的。从皮尔森相关系数的定义来看,其计算量也是巨大的。因此代码中给了luispedro提供的一种计算相关系数的替换函数,效率能提高不少。

原文发布于微信公众号 - 大数据挖掘DT数据分析(datadw)

原文发表时间:2015-11-20

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏数据派THU

英雄联盟如何指挥团战?AI帮你做决策(附资源)

[ 导读 ]英雄联盟是一个需要默契团队配合的多人对战游戏。在瞬息万变的战斗中,如何做出正确的决策非常重要。最近,数据分析师 Philip Osborne 提出了...

915
来自专栏PPV课数据科学社区

不懂这几个问题,怎么学好数据挖掘!

关键词:数据挖掘、DataMining、OLAP、Data Warehousing 正文如下: 1、DataMining和统计分析有什么不同? 硬要去区分Dat...

3215
来自专栏灯塔大数据

干货 | 数据挖掘入门必看10个问题

NO.1 Data Mining 和统计分析有什么不同? 硬要去区分Data Mining和Statistics的差异其实是没有太大意义的。一般将之定义为Da...

3054
来自专栏AI科技评论

论文 | 谷歌OpenAI联合发布AI安全五大准则,取代机器人三定律预防科技暴走(上)

虽然说谷歌很明显对AI持着积极态度,但或许一两种有效的保险措施仍是需要的,就像人也需要法律来约束一样。身处AI科研最前沿的谷歌正在积极研究有效预防AI对人类可能...

38712
来自专栏新智元

【支撑20亿人的机器学习】Jeff Dean、贾扬清等ScaledML大会演讲

1446
来自专栏灯塔大数据

深度|DT时代的核心竞争力---数据分析与挖掘

数据分析与挖掘,指的是通过对大量的数据进行观察与分析。发掘其中的未知的,潜在的、对决策有价值的关系、模式和趋势,并利用这些规则建立决策模型、提供预测性支持的方...

2914
来自专栏思影科技

默认模式网络下的自动化信息处理

爱因斯坦邀请您关注思影科技! 近日,来自剑桥大学的Deniz等人在PNAS上发文,主要讲述了DMN网络对个体自动信息处理的控制。个体在一系列复杂的心理过程中,会...

3398
来自专栏钱曙光的专栏

AI 重新定义 Web 安全

目前近 90% 的企业都已经开始使用云计算(包括公有云、私有云等),这说明大规模云化对于企业而言已经不只是趋势,更是确凿的既成事实,云化普及的同时也给安全带来很...

3560
来自专栏量子位

这一次,MIT的科学家让谷歌AI把步枪误认成直升机

安妮 编译整理 量子位 出品 | 公众号 QbitAI 这是什么? ? 熟悉枪械的盆友可能一眼就认出这是步枪,即使对枪种类不熟悉的同学也能认出这最可能是枪。 但...

2565
来自专栏大数据文摘

如何把各类难题变得数据可解?Get与数据科学家聊天的正确姿势

794

扫码关注云+社区