前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >SIGIR'21「腾讯」冷启动:元学习+FTRL+动态学习率=FORM模型

SIGIR'21「腾讯」冷启动:元学习+FTRL+动态学习率=FORM模型

作者头像
秋枫学习笔记
发布2022-09-19 11:28:08
5110
发布2022-09-19 11:28:08
举报
文章被收录于专栏:秋枫学习笔记

title: FORM: Follow the Online Regularized Meta-Leader for Cold-Start Recommendation link: https://dl.acm.org/doi/pdf/10.1145/3404835.3462831 from:SIGIR 2021

预备知识

https://zhuanlan.zhihu.com/p/136975128 元学习

https://zhuanlan.zhihu.com/p/72828180 FTML

https://zhuanlan.zhihu.com/p/32694097 FTRL

1. 背景

本文针对元学习在在线推荐系统的冷启动中存在的问题提出FORM学习框架,通过正则化的方式来缓解在线系统的波动以及产生稀疏的权重,并且提出可缩放的学习率使模型能更有效的适应新用户。现有的元学习方法存在的问题

  • 无法根据不同用户的历史记录的多样性对其进行评估,对所有用户都同等对待
  • 难以抵抗在线系统的复杂波动
  • 解决在线系统的巨大吞吐量具有挑战性

作者在文中列出了伪代码,感兴趣的小伙伴可以阅读

2. 基于元学习的推荐系统基本形式

用户集合表示为

U

,画像为

p_u

,商品集合为

I

,商品画像为

q_i

r_{ui} \in R^{m\times n}

表示用户和商品之间的交互,包括显式和隐式。在元学习框架下,将每一个用户u作为一个任务,

I_u

表示和用户交互的商品的集合,将其分为支持集合查询集

S_u,Q_u

。目标是去学习未知的

\hat{r}_{ui}

。主要包含三个部分:embedding and evaluation framework, local user-level gradient update principles, and global system-level update principles。

小概览

  • embedding and evaluation framework:生成相应特征的embedding,模型预测
  • local user-level gradient update principles:元学习中不同任务的梯度更新,在本文中就是不同用户构建为单个任务所以是user-level。
  • global system-level update principles:元学习中meta模型的参数更新,这里的meta就是在MAML(具体可以看预备知识中的元学习)中生成初始化参数的模型。

2.1 Embedding and Evaluation

将用户和商品的特征作为输入,用户特征表示为

x_u=\{u_{id},p_u\}

,商品特征表示为

x_i=\{i_{id},q_i\}

,分别包含对应的id和画像特征。经过MLP和ReLU激活函数可以得到对应的embedding

e_u,e_i

,然后将其拼接后送入后续的模型进行预测

\hat{r}_{ui}=MLP_{\theta}(e_u\oplus e_i )

。其中

\oplus

表示向量拼接。最终如下式计算损失函数后,进行梯度回传,这里笔者认为作者应该是举个例子,其他损失函数应该也是可以的,不唯一。

\min _{\theta} \mathcal{L}_{u}\left(f_{\theta}, I_{u}\right)=\frac{1}{\left|I_{u}\right|} \sum_{i \in I_{u}}\left(\hat{r}_{u i}-r_{u i}\right)^{2}

2.2 Local User-Level Update

局部和全局共享embedding和评估框架,但是在梯度更新的时候存在不同。传统机器学习是随机初始化参数,然后不断训练慢慢收敛。元学习,例如MAML,通过一些先验知识得到模型的初始化参数,然后可以使得模型能够快速收敛并具有较好的性能。

模型参数通过两层更新,分别为局部更新和全局更新。局部更新通过先验用户历史进行训练,公式如下,其中

D_u^s

表示支持集,L()表示针对用户u的训练任务的损失函数,

\theta_{u}=\theta_{u}-\alpha_{l} \nabla_{\theta_{u}} \mathcal{L}_{u}\left(f_{\theta_{u}}, D_{u}^{s}\right)

2.3 Global System-Level Update

然后利用查询集

D_u^q

,对用户集合U中的每个用户u的任务都用

\tilde{\theta}

初始化,然后对每一个用户产生的损失求和,优化下面的损失。

\min _{\tilde{\theta}} \sum_{u \sim p(\mathcal{U})} \mathcal{L}_{u}\left(f_{\theta_{u}}, D_{u}^{q}\right)

对于每个用户u的任务来说,参数更新方式如下,

\theta_{u}=\tilde{\theta}-\eta \nabla_{\theta_{u}} \mathcal{L}_{u}

对于初始化参数

\tilde{\theta}

来说,参数更新方式如下,

\tilde{\theta}=\theta-\alpha_{g} \nabla_{\theta} \sum_{u \sim p(\mathcal{U})} \mathcal{L}_{u}\left(f_{\theta}, D_{u}^{q}\right)

3. 方法

3.1 动机

现有的方法旨在学到一个好的初始化参数

\tilde{\theta}

,这个参数可以可以在所有用户上都表现的好。但是这种方法难以处理在线场景,在线推荐系统中,支持集的用户是从波动和嘈杂的在线序列中随机选择的此类训练质量有限的用户可能会进一步导致梯度退化和局部最优。如图1所示,元推荐的命中率偶尔会出现不必要的下降。更糟糕的是,每次元推荐的性能下降时,在训练过程中命中率的方差急剧增加,如图 1 的子图所示。因此,我们需要新的方法来控制在线性能并提供更多稳定的训练过程。

3.2 Follow the Online Regularized Meta-Leader

虽然元学习在离线情况下已经取得了较大成功,但是在在线推荐中还存在以下问题:

  • 用户以在线顺序到达,因此需要设计方法来有效的学习在线梯度
  • 由于在线系统的波动性,在梯度正确收敛之前可能会发生剧烈波动
  • 不同用户在全局更新中都是同等对待的

本文作者提出了三个方法来解决上述问题:Follow the Online Meta Leader (FTOML), Follow the Regularized Online Meta Leader (FTROL), and Optimize the Online Scalable Learning Rate (SLR)。

如图所示为模型的流程图,首先,用户和商品被记录到缓冲区

U_t,D_t

;然后从用户集合中提取一个batch,利用Local-Update结合FTROL算法对用户u在时刻t时的局部参数进行更新,并且只有小于阈值C的损失才送入全局参数更新,结合SLR为不同的用户提供不同的学习率。

3.2.1 Follow the Online Meta leader

基于FTL(可看预备知识中的FTRL)算法,作者提出FTOML方法来进行在线局部参数更新。核心思想:将所有来自先前用户流的数据合并到一个元梯度学习步骤中,而不是仅考虑当前流中采样的记录。从而使得模型能够不仅准确预测当前记录也能预测之前的记录。目标函数为下式,其中损失函数表示用户u在时刻s的局部损失,D为用户u的训练数据集。

\theta_{t+1}=\underset{\theta}{\arg \min } \sum_{s=1}^{t} \sum_{u \in \mathcal{U}} \mathcal{L}_{u, s}\left(f_{\theta}, D_{u}\right)

为了确保性能,作者设置了一个阈值𝐶 用于控制用户级模型的性能,只有当损失值小于阈值时,可以被用于更新全局参数。

3.2.2 Follow the regularized online meta leader

由于用户随机且不均匀地到达,因此参数会在不同的轮次中更新 波动性强,导致梯度下降不稳定。并且,参数越稀疏,在线计算效率越高,因此作者在FTOML的基础上加入正则项,提出FTROL来确保更新过程的一致性和稳定性和参数稀疏性。更新公式如下,其中

R_u

为上述的正则项,公式如下,可以发现这里其实为FTRL和meta learning的结合,正则项就是FTRL的正则项

R_u=\lambda_{1}\|\theta\|_{1}+\lambda_{2}\|\theta\|_{2}^{2}+\frac{1}{2} \sum_{s=1}^{t}\left(\sigma_{s}\left\|\theta-\theta_{s}\right\|_{2}^{2}\right)
\theta_{t+1}=\underset{\theta}{\arg \min }\left\{\sum_{s=1}^{t} \mathcal{L}_{u, s}\left(f_{\theta}, D_{u}\right)+R_{u}\right\}

可以将上式改写为下式,从而可以直接求得闭式解,

z_{i, t}=g_{1: t}-\sum_{s=1}^{t}\left(\sigma_{s} \theta_{s}\right)
g_{1: t}=\nabla\left(\sum_{s=1}^{t} \mathcal{L}_{u, s}\left(f_{\theta}, D_{u}\right)\right)
\eta_t=\alpha /\left(\tau+\sqrt{\sum_{s=1}^{t}\left(g_{s}\right)^{2}}\right)
\theta_{t+1}=\left\{\begin{array}{ll} -\left(\lambda_{2}+\frac{1}{\eta_{t}}\right)^{-1}\left(z_{i, t}-\lambda_{1} \operatorname{sgn}\left(z_{i, t}\right)\right) & \text { if }\left|z_{i, t}\right| \geq \lambda_{1} \\ 0 & \text { if }\left|z_{i, t}\right|<\lambda_{1} \end{array}\right.

3.2.3 Optimize Scalable Online Learning Rate

这部分用于针对不同的用户应该给予不同的重视程度,对于历史信息少,且损失函数波动大的用户,应该从中抽取更少的元知识。作者设计一个可缩放的在线学习率,这个学习率可以衡量梯度的方差和历史数据的长度,用户u在k个商品下的最优学习率计算公式如下,其中α为原本的学习率,

\omega_{1}

为梯度的方差,

\omega_{2}

为梯度的期望。

\alpha_{k}^{*}=\operatorname{SLR}_{u}\left(\alpha, k, \mathcal{L}_{u}\right)=\left(1-\frac{1}{1+\frac{\omega_{2}}{\omega_{1}} k}\right) \alpha
\omega_{1}=\mathbb{E}_{\mathcal{T}_{u}}\left[\operatorname{Var}\left(\nabla_{\theta} \mathcal{L}_{u}^{k}\left(\hat{r}_{u i}, r_{u i}\right)\right)\right]
\omega_{2}=\mathbb{E}_{\mathcal{T}_{u}}\left[E_{\mathcal{D}_{u}}\left(\nabla_{\theta} \mathcal{L}_{u}^{k}\left(\hat{r}_{u i}, r_{u i}\right)\right)^{2}\right]

4. 结果

image.png

5. 总结

作者在文中讲解了往常基于元学习的推荐系统的大概流程,因此对于元学习如何应用于推荐系统不熟悉的小伙伴可以阅读这部分,另一方面,作者针对现有元学习方法应用于在线推荐系统的缺陷,将元学习和FTRL在线学习方法结合,并通过设计动态的学习率来对每一个用户提供不同的关注度,从而提升了总体上的性能。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-12-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 秋枫学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 预备知识
    • 2.1 Embedding and Evaluation
      • 2.2 Local User-Level Update
        • 2.3 Global System-Level Update
          • 3.1 动机
            • 3.2 Follow the Online Regularized Meta-Leader
              • 3.2.1 Follow the Online Meta leader
              • 3.2.2 Follow the regularized online meta leader
              • 3.2.3 Optimize Scalable Online Learning Rate
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档