前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >WSDM'22「百度」考虑行为多样性的对比元学习

WSDM'22「百度」考虑行为多样性的对比元学习

作者头像
秋枫学习笔记
发布2022-09-19 11:01:45
2340
发布2022-09-19 11:01:45
举报
文章被收录于专栏:秋枫学习笔记秋枫学习笔记

关注我们,一起学习~

title:Contrastive Meta Learning with Behavior Multiplicity for Recommendation link:https://arxiv.org/pdf/2202.08523.pdf code:https://github.com/weiwei1206/CML.git from:WSDM 2022

1. 导读

本文希望通过结合多种类型的行为(访问页面,喜欢,购买等),从而发掘用户和商品之间的复杂关联。但是这类方法通常面临两个问题:

  • 目标行为下监督信号稀疏;
  • 通过依赖关系建模捕获个性化的多行为模式。

本文提出对比元学习CML来解决上述问题,

  • 通过对比损失,在多行为对比学习框架下学习不同行为之间的迁移信息,利用辅助行为的信息来帮助目标行为学习,缓解稀疏问题;
  • 设计对比元网络编码不同用户的特定行为的异质性,从而捕获多样的行为模式。

2. 定义

U表示用户集合,I表示商品集合,

\mathcal{X}^{(k)}

表示第k中行为的用户-商品交互矩阵,多行为交互数据可以表示为

\{\mathcal{X}^{(1)},...,\mathcal{X}^{(K)}\}

,如果

x_{u,i}^k=1

则表示用户u和商品i在类型k的行为上存在交互。整个数据中存在目标行为,即需要预测可能会交互的行为,而其他交互属于辅助行为。

整个任务可以描述为,输入:用户集U和商品集I的K种类型的交互数据。输出:预测函数对用户u和商品i可能交互的行为进行预测。

多行为交互图:节点集合V包含用户集合商品集,

\mathcal{V}=U \cup I

。边集合

\mathcal{E}

包含多种类型的交互,在边集合中若

e^k_{ui}=1

则表示

x_{u,i}^k=1

3. 方法

CML的整体框架如图所示,后续将详细介绍。

3.1 行为感知的GNN

为了将高阶连接性注入跨用户/项目的多重关系学习,设计了一个行为感知的基于图的消息传播框架。基于LightGCN,本文提出的图结构可以表示为下式,以用户embedding为例进行说明,同一类型的行为下,后一层使用前一层该用户节点的邻居商品节点的embedding求和得到。

\mathbf{e}_{u}^{k,(l+1)}=\sum_{i \in \mathcal{N}_{u}^{k}} \mathbf{e}_{i}^{k,(l)} ; \mathbf{e}_{i}^{k,(l+1)}=\sum_{u \in \mathcal{N}_{i}^{k}} \mathbf{e}_{u}^{k,(l)}

在同一层中,将所有类型的行为进行聚合可以得到该层下的用户或商品表征(用户和商品的表征的聚合方式一样),聚合方式如下,

\mathbf{e}_{u}^{(l+1)}=\operatorname{PReLu}\left(\mathbf{W}^{l} \cdot \frac{\sum_{k \in K} \mathbf{e}_{u}^{k,(l+1)}}{K}\right)

3.2 多行为对比学习

在CML框架中采用一种多行为对比学习范式,通过自监督原则捕捉不同类型用户交互的复杂依赖关系。该对比学习框架利用来自辅助行为的辅助监督信号促进主要的监督任务(即目标行为预测)

3.2.1 对比视角生成

本文将不同的行为视为不同的视角,在每个视角下用用户行为embedding进行对比学习。通过辅助行为的上下文信息作为监督信号来对数据进行增广,使得不仅能够编码不同行为之间得到依赖关系,还能缓解不同类型的行为数据分布倾斜问题。

3.2.2 逐行为对比学习

在建立了多行为下的对比视角后,进一步设计目标行为和辅助行为之间的逐行为对比学习范式。将同一用户的不同行为视角看做是正样本对,不同用户的行为视角看做是负样本对。给定从GNN得到的用户目标行为表征

e_u^k

,生成正负样本对为

\{e_u^k,e_u^{k'}|u \in \mathcal{U}\}

,

\{e_u^k,e_{u'}^{k'}|u,u' \in \mathcal{U},u \neq u'\}

。基于InfoNCE的对比损失来最大化用户表征的互信息,公式如下,其中

\varphi()

表示相似度函数,如内积或余弦相似度,τ是超参数。

\mathcal{L}_{c l}^{k, k^{\prime}}=\sum_{u \in \mathcal{U}}-\log \frac{\exp \left(\varphi\left(\mathbf{e}_{u}^{k}, \mathbf{e}_{u}^{k^{\prime}}\right) / \tau\right)}{\sum_{u^{\prime} \in \mathcal{U}} \exp \left(\varphi\left(\mathbf{e}_{u}^{k}, \mathbf{e}_{u^{\prime}}^{k^{\prime}}\right) / \tau\right)}

上述损失函数是目标行为k和其他辅助行为k'之间进行互信息约束,那么考虑所有辅助行为就可以得到损失函数如下,

\mathcal{L}_{cl}=\mathcal{L}_{cl}^{k',1}+...+\mathcal{L}_{cl}^{k',K}

3.3 元对比编码

不同的用户有不同的行为模式和商品交互偏好。例如,一些用户可能会从他们最喜欢的商品列表中挑选大部分商品来购买,而另一些用户可能只购买零星的商品,因为他们在列表中添加了很多不太感兴趣的商品。来自不同用户的多种行为模式的多样性导致了不同的商品交互。本文提出了一种元对比编码方案来学习一个显式的权重函数来整合多行为对比损失。从而有效建模不同类型行为之间的个性化依赖关系。元对比编码模式是一个两阶段:

i)用元知识编码器来捕获个性化的多行为特征,从而反映不同的行为感知的用户偏好。

ii)然后,提取的元知识被纳入元权重网络中,为跨类型行为依赖建模生成定制的对比损失权重。

3.3.1 元知识编码器

本文设计了两种编码方式,公式分别如下,其中d()为复制函数,生成与embedding维度对应的向量。||表示拼接,γ为缩放系数。

e_u^{k'}

为辅助行为的embedding,

e_u

为聚合后的embedding。

\mathbf{Z}_{u, 1}^{k, k^{\prime}}=\left(d\left(\mathcal{L}_{c l}^{k, k^{\prime}}\right) \cdot \gamma\right)\left\|\mathbf{e}_{u}^{k^{\prime}}\right\| \mathbf{e}_{u} ; \mathbf{Z}_{u, 2}^{k, k^{\prime}}=\mathcal{L}_{c l}^{k, k^{\prime}} \cdot\left(\mathbf{e}_{u}^{k^{\prime}} \| \mathbf{e}_{u}\right)

3.3.2 元权重网络

得到元知识后,设计元权重网络得到不同对比损失的权重。公式如下,

\xi\left(\mathbf{Z}_{u}^{k, k^{\prime}}\right)=\operatorname{PReLU}\left(\mathbf{Z}_{u}^{k, k^{\prime}} \cdot \mathbf{W}_{\xi}+\mathbf{b}_{\xi}\right)

结合两个元知识,得到最终的权重为下式,这部分生成的权重用于对比损失和后面的BPR损失进行加权

\omega_{u}^{k, k^{\prime}}=\omega_{u, 1}^{k, k^{\prime}}+\omega_{u, 2}^{k, k^{\prime}}=\xi\left(\mathbf{Z}_{u, 1}^{k, k^{\prime}}\right)+\xi\left(\mathbf{Z}_{u, 2}^{k, k^{\prime}}\right)

3.4 CML的学习过程

3.4.1 优化目标

这里采用BPR损失函数对模型进行优化,第k个类型的行为下的损失函数公式如下,L2正则用于防止过拟合,x为用户表征和商品表征计算得到的在行为k下的偏好分数。

\mathcal{L}_{B P R}^{k}=\sum_{\left(u, i^{+}, i^{-}\right) \in O_{k}}-\operatorname{In}\left(\operatorname{sigmoid}\left(\hat{x}_{u, i^{+}}^{k}-\hat{x}_{u, i^{-}}^{k}\right)\right)+\lambda\|\Theta\|^{2}

3.4.2 模型训练

基于元学习的策略,本文交替更新GNN

\mathcal{G(A;\Theta_{G})}

和多行为对比元网络

\mathcal{M((L,\mathbf{E,E}^k);\Theta_M)}

。其中A为邻接矩阵,

E

E^k

分别表示跨类型的用户embedding矩阵和特定类型行为的用户embedding矩阵。训练循环中总共三个阶段:

  • 将行为感知图神经网络(带克隆状态)和对比元网络相结合,在整个训练数据中学习多行为对比编码器的初始参数空间;
  • 基于元数据细化模型参数
\Theta_M
  • 得到个性化权重后,利用更新好的
\Theta_M

改善GNN的参数

\Theta_G

优化过程如下,其中B是batch size。

\begin{aligned} \Theta_{G}^{*} &=\underset{\theta}{\arg \min } \triangleq \sum_{k=1}^{K} \sum_{b=1}^{B}\left(\mathcal{M}\left(\left(\mathcal{L}_{c l, k}^{\text {train } \cup \text { meta }}, \mathbf{E}, \mathbf{E}^{k}\right) ; \Theta_{\mathcal{M}}\right) \cdot \mathcal{L}_{c l, k}^{\text {train }}\right.\\ &\left.+\mathcal{M}\left(\left(\mathcal{L}_{b p r, k}^{\text {train } \cup \text { meta }}, \mathbf{E}, \mathbf{E}^{k}\right) ; \Theta_{\mathcal{M}}\right) \cdot \mathcal{L}_{b p r, k}^{\text {train }}\right) \end{aligned}

4. 结果

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-02-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 秋枫学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 3.1 行为感知的GNN
  • 3.2 多行为对比学习
    • 3.2.1 对比视角生成
      • 3.2.2 逐行为对比学习
      • 3.3 元对比编码
        • 3.3.1 元知识编码器
          • 3.3.2 元权重网络
          • 3.4 CML的学习过程
            • 3.4.1 优化目标
              • 3.4.2 模型训练
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档