推荐系统中的冷启动和探索利用问题探讨

作者:文辉 | 达观数据 量子位 已获授权编辑发布

1.前言

互联网技术和大数据技术的迅猛发展正在时刻改变我们的生活,视频网站、资讯app、电商网站对于推荐系统而言,每天都有大量的活跃用户在不断的产生海量的用户行为,同时,每天又都产生大量的新增PGC或者UGC内容(如小说、资讯文章、短视频等)。

从推荐系统的角度来看,系统每时每刻都面临大量的新旧用户、新旧物品和大量的用户行为数据,对于用户,我们需要对要用户进行建模,去刻画用户的肖像和兴趣。

然而我们常常面对的情况是用户的行为是稀疏的,而且可能存在比例不一的新用户,如何给新用户推荐,是推荐系统中的一个著名问题,即冷启动问题,给新用户展示哪些item决定了用户的第一感和体验。

同时,在推荐过程中,我们需要考虑给新item展示的机会,也能也需要给一个喜欢科幻电影的user推荐一些非科幻类型的电影,而这就是推荐系统中另外一个问题,即探索和利用的问题。

2.冷启动和EE问题

推荐系统需要根据历史的用户行为和兴趣偏好预测用户未来的行为和兴趣,因此历史用户行为某种程度上成为推荐推荐的重要先决条件。

实际过程中,我们面对大量的新用户,这些用户我们并不知道他们的profile,对于这些用户,常用的冷启动的算法包括根据已有的个人静态信息(年龄、性别、地理位置、移动设备型号等)为用户进行推荐。

然而实际情况下,我们很难在系统中直接获取这些用户信息。给新用户推荐的item,由于成本较高(用户不感兴趣就再也不来了),我们需要保证item要足够热门,要保证足够的多样性,同时尽量保证可区分。

与用户的冷启动相对应的,则是item的冷启动,当一个新物品加入站内,如何快速的展现的用户。对于CF算法来说,无论是基于领域还是基于模型,如果想要这个新物品被推荐出来,显然我们需要用户对这个物品的行为。

特别是在某些场景下,推荐列表是给用户展示的唯一列表,那么显而易见,只能在推荐列表中尝试给用户推荐新物品。

一个最简单的做法就是在推荐列表中随机给用户展示新物品,但是这样显然不太个性化,一个较好的做法是将新物品推荐给曾经喜欢过与新物品相似的物品的用户。

由于新item没有用户行为,因此物品相似度只能从item自身出发,包括根据item的内容信息挖掘出item的向量表示,通过向量相似度来刻画物品相似度,还可以利用topic model挖掘出item的主题分布等等。

推荐系统需要考虑对用户兴趣的不断探索和细化,同时也需要尽可能的扩大展示物品的多样性和宽度。

比如,极端情况下给用户展示物品的场景只有推荐列表,同时我们需要尽可能的优化的ctr,那么给冷启动用户我们该如何选择物品,如何快速的探测出用户的兴趣;对于一个热爱足球的足球迷我们该如何选择给他推荐的物品。

比较简单的方式我们可以可以根据ctr排序,给冷启动用户推荐最热门点击率最高的物品,给足球迷推荐点击率最高的足球相关物品,显然这样做会保证我们推荐结果的ctr会比较高。

但是,这样做会减少我们推荐结果的覆盖率,降低推荐结果的多样性,以致于推荐物品候选集也会收敛,出现反复推荐,比如对于资讯来说,用户看到的资讯都是点击率较高的搞笑类,但是显然搞笑并不能刻画的兴趣。

而这也就是我们得不断探索用户兴趣,扩大推荐结果多样性的原因。 简单来看这其实是一个选择问题,即探索(exploration)和利用(exploitation)问题。接下来本文接下来将详述EE问题和某些已有算法。

3.多臂老虎机模型和UCB算法

当你走进一家赌场,面对20个一模一样的老虎机,你并不知道它们吐钱的概率,假设你的成本是1000元,每摇一次的成本是2元,那么你在总共500次摇臂的机会下,该如何最大化你的收益呢? 这就是多臂老虎机问题(Multi-armed bandit problem, K-armed bandit problem, MAB)。

一个简单的做法就是每台老虎机我们都摇10次,余下的300次都选择成功率最高的那台。但是显然我们耗费了200次机会来探索,而且我们仍然无法保证实验成功率最高的那台老虎机就是真实成功率最高的。

大家也可以猜到,如果我们有足够多的探索机会,那么我们几乎可以选择出成功率最高的老虎机。

很遗憾,我们没有足够的探索机会,对应到我们的推荐问题中就是任何的用户展示pv都是珍贵的,况且实际情况的“老虎机”远远不止20台,而且还存在不断新加入的情况,这就导致获取每个item收益率的成本太大。

我们使用累计遗憾(collect regret)来衡量策略的优劣:

t表示当前轮数,

表示平均最大收益,

表示第t轮的实际收益。累计遗憾公式表明了实际累计收益和理想最佳收益的差值。

为了简单起见,我们假设每台机器的收益为伯努利收益,即收益要么是0,要么是1。对应到推荐系统中,老虎机即对应我们的物品(item),每次摇臂即认为是该物品的一次展示,我们可以用是否点击来表示收益,点击(win)的收益就是1,没有点击(lose)的收益就是0。

解决bandit问题的算法众多,一般分为基于semi-uniform的策略、probability matching 策略、pricing策略等。这里只列举若干个策略,具体大家可以参考(https://en.wikipedia.org/wiki/Multi-armed_bandit)))。

Epsilon-greedy策略:每次试验都以1-ε的概率选择前面试验中平均收益最佳的item,以ε的概率等概率随机选择其他item,该策略简单,而且可以通过

Epsilon-first策略:该策略探索和利用交叉选择,总试验次数为N,探索次数为ε*N,探索阶段也是等概率随机选择所有item,利用阶段也是选择平均收益最好的机器。

Epsilon-decreasing策略:与Epsilon-greedy策略近似,不同地方在于ε随着试验的进行会不断减少。

UCB(Upper Confidence Bound)算法

在推荐系统中,通常量化一个物品的收益率(或者说点击率)是使用,例如点击为10,展示数为8,则估计的点击率为80%,在展示数达到10000后,其表现ctr是否还能达到80%呢? 显然是不可能的。

而这就是统计学中的置信度问题,计算点击率的置信区间的方法也有很多,比如威尔逊置信空间(https://en.wikipedia.org/wiki/Binomial_proportion_confidence_interval#Wilson_score_interval)。UCB算法步骤包括:首先对所有item的尝试一下,然后每次选择以下值最大的那个item:

其中

是物品到目前的收益均值,

本质上是均值的标准差。t是目前的试验次数,

是这个item被试的次数。

这个公式表明随着每个物品试验次数的增加,其置信区间就越窄,收益概率就越能确定。如果收益均值越大,则被选中的机会就越大(exploit),如果收益均值越小,其被选中的概率也就越少,同时哪些被选次数较少的item也会得到试验机会,起到了explore的作用。

Probability-matching策略表明一台机器的选择次数应当与它是最佳收益item的概率相同。其中Thompson采样就是一种Probability-matching策略算法,该算法也是一个的在线学习算法,即通过不断的观察数据来更新模型参数。

Thompson采样

Thompson采样假设每个item的收益率为p,那么如何来估计一个item的收益概率p呢?直接用试验结果的收益概率p是否合理呢? 比如一个item给用户展示了20次,用户点击了16次,那么我们可以认为这个item的收益率是80%吗?

而这显然是不合理的,因为我们首先需要考虑的就是这个收益率的置信度,20次试验得出的结果置信度小于试验了10000次试验的置信度,其次可能我们的经验表明所有item的平均收益率只有10%。

Thompson采样使用Beta分布来描述收益率的分布(分布的分布: https://en.wikipedia.org/wiki/Beta_distribution),我们通过不断的试验来估计一个置信度较高的基于概率p的概率分布。

假设概率p的概率分布符合Beta(wins, lose),beta分布有两个参数wins和lose,每个item都维护了beta分布的参数,每次试验都选择一个item,有点击则wins增加1,否则lose增加1。每次选择item的方式则是:用每个item的beta分布产生一个随机数,选择所有item产生的随机数中的最大的那个item。Beta分布概率密度函数如下:

举例来说,推荐系统需要试探新用户的兴趣,假设我们用内容类别来表示每个用户的兴趣,通过几次展示和反馈来获取用户的兴趣。针对一个新用户,使用Thompson算法为每一个类别采样一个随机数,排序后,输出采样值top N 的推荐item。获取用户的反馈,比如点击。没有反馈则更新对应类别的lose值,点击了则更新对应类别的wins值。

4.LinUCB算法

回到推荐列表的场景,推荐系统为用户推荐物品。user和item都可以用一系列特征表示。用户特征包括用户的统计历史行为、人口学属性信息;物品特征包括描述信息、类别信息等等。在这种场景下,探索和利用也必须是个体用户级别上实施,因为不同用户看到相同的物品的反馈差异较大。

LinUCB算法是一种基于上下文特征(用户特征、物品特征)的UCB算法,基于特征进行探索和利用。该算法结合上下文特征,选择给用户的推荐物品,同时利用用户反馈及时修正选择策略,以达到最大化收益(提升点击率)的目标。

使用互斥线性模型的LinUCB

LinUCB算法假设推荐item的每次展现收益(是否点击)是和上下文特征成线性关系的,即:

其中

表示用户特征和物品特征的合集,

表示第t次尝试的收益,a表示item,

表示物品a的位置系数向量。可以看出各个item的模型参数是相互独立的(互斥)。

表示为m个训练上下文,

表示每个上下文的实际收益,对训练数据

使用岭回归训练出的物品a的参数为:

其中

表示d*d的单位矩阵。其中在置信度1-δ下,模型收益与期望收益满足:

其中δ>0,

上述等式给出了物品a期望收益的一个UCB,因此也就引申出了UCB的选择策略,对于第t次试验,选择以下式中最大值的物品,

其中

。上述模型中

预期收益的方差为

,即

为标准差。

以上为互斥线性模型LinUCB的基本算法流程,其中结合上述内容,第一行α参数控制了explore的程度,即α越大,置信区间上限也就越大,也就加大了explore的程度;4-7行对于新物品,使用单位阵和0l向量进行参数初始化;8-9行计算item a的置信区间上限;11行选择最优item;12-13行更新选择item的模型参数。

思想上LinUCB算法类似于对召回结果重排序的方法,也是考虑用户和item的特征,来计算出收益最大的item。

不同的是,LinUCB借鉴了UCB的置信区间的方法来平衡exploit和explore问题,同时从LinUCB算法是一个在线的学习算法,与一般离线算法需要离线训练不同,LinUCB随着每次展示和反馈会不断优化我们的模型参数和收益。

LinUCB算法的介绍请参考论文:

http://rob.schapire.net/papers/www10.pdf

5.CLUB算法

CLUB(online clustering bandits)算法假设将全部用户划分成若干个用户群,每个用户群对相同推荐内容的反馈是一致的,同时自适应的调整用户群。与liner bandit一样,CLUB算法也是根据特征计算收益,不同的是CLUB算法中相同群体用户共享相同的参数向量,即第i个用户对item a的收益为:

其中表示第i个user,

表示第i个user所属的用户群编号,u表示每个用户群的参数向量,x表示上文下特征,∈表示噪声项。

该算法在时刻t,对于用户i,维护一个向量

的估计值

与liner bandit算法相似,

根据收益反馈不断更新。与LinUCB算法类似的,

可以根据协方差矩阵

(d*d维,初始化为单位阵)的逆和向量

(d维向量,初始化为0向量)计算得出。

除此之外,算法需要维护一个无向图

,每个节点表示一个user。算法首先从完全图开始,根据

的演化逐步移除节点之间的边。定义第t时刻的用户群个数为

表示时刻t的用户划分群。显然初始状态下

(全部用户)。

在每个时刻t(1,2,……),用户

,相关上下文特征向量集合为

,用户

所属的群为

,CLUB算法根据收益选择item的公式如下:

其中

是通过同用户群内各个节点通过最小方差逼近拟合计算得出的聚合权重向量,CB为向量

CLUB算法观察到item的收益

后,更新协方差矩阵

更新

;虽然不会更新其他节点的M和b,但是会隐式的影响下一轮的聚合权重向量

;接下来判断节点

与相邻节点的参数向量

距离,如果足够大,则将该边移除。

CLUB算法的完整流程如下:

其中α控制探索的程度,

是用户关系是否删除的控制参数。上述算法流程包含了删除关系边的条件,其中

是t时刻前历史上i用户被选中的次数。

CLUB算法首先提出了基于协同概念的bandit算法,即每次用户预测对item收益是由这个所属的群体的聚合权重向量参数所决定的,同时根据个人反馈更新个人参数,个人参数又隐式的影响群体参数和用户群体的划分。据CLUB算法论文介绍,在一些公共数据集中,取得了比LinUCB更好的效果,关于CLUB算法的更多细节请参考https://arxiv.org/abs/1401.8257。

6.结束语

本文简单介绍了推荐系统中一直存在的两大问题:冷启动和EE问题,并简单阐述了业界解决这两大问题的一些常见解决方法和算法。正如前文所说,EE问题某种程度中一直以矛盾共同体存在,在实际场景中,需要平衡两者。

达观数据长期致力于推荐系统的深度探索和研究,达观个性化推荐引擎可以快速捕捉用户新的兴趣点,实时更新用户模型,大幅提高推荐效果,同时利用大量的NLP技术和深度学习技术扩大推荐多样性,避免内容越推越窄,更多请参考http://www.datagrand.com/recommend.html。本文时间有限,难免有偏颇之处,欢迎大家共同探讨。

原文发布于微信公众号 - 量子位(QbitAI)

原文发表时间:2017-07-14

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI研习社

AI 实时生成材质,效果直逼好莱坞大片

如果你要使用 Principled Shader 通过手动方式创建不同材质上逼真的光影效果,使用者必须对大量的材质参数进行手动微调,并且在每次设置后等待图片渲染...

1112
来自专栏机器之心

变革尚未成功:深度强化学习研究的短期悲观与长期乐观

选自alexirpan 机器之心编译 参与:Nurhachu Null、刘晓坤 深度强化学习是最接近于通用人工智能(AGI)的范式之一。不幸的是,迄今为止这种方...

4836
来自专栏AI研习社

深度学习的教学和课程,与传统 CS 的教学和课程有什么区别?

本文作者阿萨姆,整理自作者在问题《深度学习的教学和课程,与传统 CS 的教学和课程有什么区别?》下的回答, AI 研习社获其授权发布。 深度学习的课程和传统计算...

3358
来自专栏机器之心

学界 | Yoshua Bengio等人提出MILABOT:强化学习聊天机器人

选自arXiv 作者:Iulian V. Serban等 机器之心编译 参与:路雪、李泽南 The Alexa Prize 是亚马逊在对话人工智能领域中发起的一...

2969
来自专栏机器之心

线性代数与张量?这本开放书籍帮你扫清通往ML的数学绊脚石

项目地址:https://web.stanford.edu/~boyd/vmls/

952
来自专栏量子位

谷歌有只AI,自动给黑白视频上色,走到哪它都认识你

1275
来自专栏人工智能快报

AI系统能帮助合成新材料

麻省理工学院的三位材料科学家及其同事发表的论文中,描述其 AI系统可通过科学论文和提取“食谱”合成特定类型的材料。 2017年11月,美国麻省理工学院的三位材料...

3034
来自专栏用户2442861的专栏

机器学习系列(7)_机器学习路线图(附资料)

http://blog.csdn.net/han_xiaoyang/article/details/50759472

2211
来自专栏媒矿工厂

Facebook VR方案总结(三)

全景视频,也称360°视频,是一种新一代的视频显示技术,用户置于球形区域中央,可以任意在拍摄角度周围360度地观看动态视频,而不受时间、空间和地...

4615
来自专栏AI科技评论

有史以来最精彩的自问自答:OpenAI 转方块的机械手

AI 科技评论按:今年 2 月,OpenAI 发起了一组机械手挑战,他们在基于 MuJoCo 物理模拟器的 Gym 环境中新设计了含有机械臂末端控制、机械手拿取...

1183

扫码关注云+社区

领取腾讯云代金券