前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ICDE'22「华为」MISS:多兴趣自监督学习框架用于点击率预估

ICDE'22「华为」MISS:多兴趣自监督学习框架用于点击率预估

作者头像
秋枫学习笔记
发布2022-09-19 10:37:08
4170
发布2022-09-19 10:37:08
举报
文章被收录于专栏:秋枫学习笔记

关注我们,一起学习~

title:MISS: Multi-Interest Self-Supervised Learning Framework for Click-Through Rate Prediction link:https://arxiv.53yu.com/pdf/2111.15068.pdf from:ICDE 2022

1. 导读

本文针对CTR预估提出的自监督方法MISS,针对现存问题:

  • 标签稀疏(即用户-商品交互相对于特征空间高度稀疏)、
  • 标签噪声(即收集的用户-商品交互通常是嘈杂的)的风险,
  • 未充分利用领域知识(即样本之间的成对相关性)。

本文提出了一种新颖的多兴趣自我监督学习(MISS)框架,该框架通过兴趣级别的自监督信号增强了特征embedding。在两个新的基于 CNN 的多兴趣提取器的帮助下,使用两个基于CNN的兴趣提取器考虑不同兴趣表征(逐点(point)和联合(union))、兴趣依赖性(短期(short range)和长期(long range))以及兴趣相关性(商品间和商品内)。并利用对比学习增强特征的表征学习。

本文特点

  • 采用CNN挖掘相邻不同商品之间的交互和相同商品不同属性之间的影响,使用不同大小的卷积核来考虑序列中的长短期关系
  • 通过在兴趣级别上的对比学习,增强模型对噪声和稀疏数据的鲁棒性

2. 方法

本文所提方法为即插即用的方法,可以与各种ctr模型结合,本文采用DIN作为基模型。通常采用的方法是在数据级别上进行增强,获得不同视角的样本,结合对比学习训练模型的表征能力,但是由于用户行为序列的多兴趣特性,样本级数据增强可能不可避免地引入噪声。原因是增强后的h可能来自不同的兴趣,即使它们是从相同的 x 获得的。为了解决这个问题,作者提出了一个兴趣级别的 SSL 框架,即 MISS,它以端到端的方式在兴趣级别上扩充训练数据。

2.1 MISS框架

2.1.1 多兴趣数据增广

考虑到用户行为的多兴趣特性,MISS 框架在兴趣级别和特征级别的每个样本中都实现了 SSL。因此,不仅可以丰富每个训练样本提供的语义,还可以促进长行为序列的建模和利用。为了实现这些目标,设计了一种用于数据增强目的的新型多兴趣提取器。

为了在兴趣级别增加用户行为数据,首先应该提取每个用户的多个兴趣表征。直观的方法是利用商品类型对序列进行划分,但是这种是粗粒度的,本文采用基于 CNN 的多兴趣提取器,它将样本特征 x 转换为一组隐式兴趣表示,其中

t_k

表示从样本x中提取的第k个兴趣表征,MIE为多兴趣提取器。

\mathcal{T}=MIE(x)=\{\mathbf{t}_1,...,\mathbf{t}_{|\tau|}\}

为了对兴趣语义进行细粒度的理解和利用,进一步设计了另一个基于 CNN 的特征增强组件,以在特征级别增强每个兴趣表征,表示如下,MIMFE为多兴趣多特征提取器,Ω为每个兴趣的特征表征数。

\begin{aligned} \mathcal{R} &=\operatorname{MIMFE}(\mathbf{x}) \\ &=\left\{\left\{\mathbf{r}_{1,1}, \cdots, \mathbf{r}_{1, \Omega}\right\}, \ldots,\left\{\mathbf{r}_{|\mathcal{T}|, 1}, \cdots, \mathbf{r}_{|\mathcal{T}|, \Omega}\right\}\right\} \end{aligned}

然后,使用增广函数进行样本x的兴趣级别的增强,表达如下,其中

\left\langle\mathbf{h}_{1}^{i, 1}, \mathbf{h}_{1}^{i, 2}\right\rangle

为样本x的一对生成视图,P为视图对的数量。

\mathcal{H}^{i}=\operatorname{Aug}^{i}(\mathcal{T})=\left\{\left\langle\mathbf{h}_{1}^{i, 1}, \mathbf{h}_{1}^{i, 2}\right\rangle, \cdots,\left\langle\mathbf{h}_{P}^{i, 1}, \mathbf{h}_{P}^{i, 2}\right\rangle\right\}

同理对多特征多兴趣提取器提取的R也进行增广,表达如下,

\begin{aligned} \mathcal{H}^{i f} &=\operatorname{Aug}^{i f}(\mathcal{R}) \\ &=\left\{\left\langle\mathbf{h}_{1}^{i f, 1}, \mathbf{h}_{1}^{i f, 2}\right\rangle, \cdots,\left\langle\mathbf{h}_{Q}^{i f, 1}, \mathbf{h}_{Q}^{i f, 2}\right\rangle\right\} \end{aligned}

2.1.2 兴趣视图编码

对兴趣和兴趣的细粒度语义进行增广后,对上面得到的两个序列进行编码得到高维抽象表征,表达如下,其中两个编码器Enc本文直接采用简单的MLP,当然也可以尝试使用其他的编码器,如Transformer。

\mathcal{Z}^{i}=\operatorname{Enc}^{i}\left(\mathcal{H}^{i}\right)=\left\{\left\langle\mathbf{z}_{1}^{i, 1}, \mathbf{z}_{1}^{i, 2}\right\rangle, \cdots,\left\langle\mathbf{z}_{P}^{i, 1}, \mathbf{z}_{P}^{i, 2}\right\rangle\right\}
\begin{aligned} \mathcal{Z}^{i f} &=\operatorname{Enc}^{i f}\left(\mathcal{H}^{i f}\right) \\ &=\left\{\left\langle\mathbf{z}_{1}^{i f, 1}, \mathbf{z}_{1}^{i f, 2}\right\rangle, \cdots,\left\langle\mathbf{z}_{Q}^{i f, 1}, \mathbf{z}_{Q}^{i f, 2}\right\rangle\right\} \end{aligned}

2.1.3 对比损失

通过上述编码得到高级语义后,利用对比损失督促模型训练。本文使用 InfoNCE 对比损失,它试图最大化正视图对的相似性并最小化负视图对的一致性。结果,相似的兴趣因此可以具有相似的表示(定义为对齐),并保留足够的信息来区分不同的兴趣(定义为一致性)。将前面得到的相同样本的兴趣视图对作为正样本对

\left\langle\mathbf{z}_{p}^{i, 1}, \mathbf{z}_{p}^{i, 2}\right\rangle

,来自不同样本的视图对为负样本对

\left\langle\mathbf{z}_{p}^{i, 1}, \mathbf{z'}_{p}^{i, 2}\right\rangle

,

\left\langle\mathbf{z'}_{p}^{i, 1}, \mathbf{z}_{p}^{i, 2}\right\rangle

,infoNCE损失构建如下,其中s()为余弦相似度,τ是温度系数,

\mathcal{L}_{s s l}=-\frac{1}{|\mathcal{B}| P} \sum_{x \in \mathcal{B}} \sum_{1 \leq p \leq P} \log \frac{\exp \left(s\left(\mathbf{z}_{p}^{i, 1}, \mathbf{z}_{p}^{i, 2}\right) / \tau\right)}{\sum_{x^{\prime} \in \mathcal{B}} \exp \left(s\left(\mathbf{z}_{p}^{i, 1}, \mathbf{z}_{p}^{\prime i, 2}\right) / \tau\right)}

同理可以得到特征级别的相关性,公式如下,

\mathcal{L}_{s s l}^{\prime}=-\frac{1}{|\mathcal{B}| Q} \sum_{x \in \mathcal{B}} \sum_{1 \leq q \leq Q} \log \frac{\exp \left(s\left(\mathbf{z}_{q}^{i f, 1}, \mathbf{z}_{q}^{i f, 2}\right) / \tau\right)}{\sum_{x^{\prime} \in \mathcal{B}} \exp \left(s\left(\mathbf{z}_{q}^{i f, 1}, \mathbf{z}_{q}^{\prime i f, 2}\right) / \tau\right)}

2.2 多任务学习

将自监督部分作为辅助损失,结合基模型(本文是DIN)的损失,对模型进行训练,公式如下,其中

L_{ll}

为常用的交叉熵损失函数。

L=L_{ll}+\alpha_1 L_{ssl} + \alpha_2 L'_{ssl}

3. 多兴趣数据增广

image.png

3.1 MIE

多兴趣提取器网络 MIE(·) 旨在从用户行为序列中发现潜在兴趣。但是,由于兴趣的数量因用户而异,相同兴趣的顺序模式在不同用户和不同时间方面也是动态的。因此,本文提出了一种基于紧密度假设的直观多兴趣提取器,即从相同兴趣派生的用户行为更有可能在序列中位置相近

基于紧密度假设,采用 CNN 来提取隐藏的兴趣表征,它可以有效地捕获局部相关性。对序列填充(padding)后,所有 J 个序列特征共享相同的长度 L,序列表征 E 中的embedding可以重新组织为 3D 张量,如下,其中

C \in \mathbb{R}^{J \times L \times K}

,其中K是embedding

e_{j,l}

的维度。

note:这里对这个矩阵做简单解释。这里的L是说用户的交互序列的长度,即交互了多少商品,这里的J为商品的属性,比如每个商品都可以包含价格,类别等。原始序列表征为E,现在按照序列和属性类型进行排列,得到现在的矩阵C。水平方向是相同属性的整个交互序列,垂直方向是相同商品的不同属性

\boldsymbol{C}=\left[\begin{array}{c} \mathbf{e}_{1,1}, \mathbf{e}_{1,2}, \cdots, \mathbf{e}_{1, L} \\ \mathbf{e}_{2,1}, \mathbf{e}_{2,2}, \cdots, \mathbf{e}_{2, L} \\ \vdots \\ \mathbf{e}_{J, 1}, \mathbf{e}_{J, 2}, \cdots, \mathbf{e}_{J, L} \end{array}\right]

潜在的兴趣从水平方向进行卷积提取,因为水平方向(即1...L)是时间轴,从时间序列中发掘潜在兴趣。因此,卷积核表示为

g_m \in \mathbb{R}^{1\times m \times 1}

,总共有M个卷积核,每个卷积核的m的大小从1到M增加,当m=1时,是逐点兴趣表征,m>1时是联合(union)的兴趣表征。计算方法如下,其中o为卷积计算,得到

G_m \in \mathbb{R}^{J\times (L-m+1) \times K}

,考虑M个卷积核,则长度为

\mathcal{|T|}=\sum_{1 \leq m \leq M}{(L-m+1)}

G_{m}^{j, l, k}=\operatorname{ReLU}\left(\boldsymbol{C}^{j, l: l+m-1, k} \circ g_{m}\right)

MIE可以表达为下式,其中Flat()函数用于将每个兴趣表征

G_m^{:,l,:} \in \mathbb{R}^{J\times K}

转换为向量

t \in \mathbb{R}^{JK}

\begin{aligned} \mathcal{T} &=\operatorname{MIE}(\mathbf{x}) \\ &=\left\{\ldots, \text { Flat }\left(\boldsymbol{G}_{m}^{:, l,:}\right), \ldots\right\} \\ &=\left\{\mathbf{t}_{1}, \mathbf{t}_{2}, \cdots, \mathbf{t}_{|\mathcal{T}|}\right\} \end{aligned}

3.2 兴趣级别的增广

同样采用上述的近邻假设,时间线上相邻的两个兴趣表征越多,它们表示相同隐藏兴趣的可能性就越大。因此,从

\mathcal{T}

中通过相同卷积核

g_m

计算的表征中随机选择一对表征作为具有相同兴趣的两个不同视图,表达如下,其中RS()表示从Gm矩阵中随机选择两个相距h的表征,重复P次得到集合H。通过控制h的大小来控制对短期和长期兴趣的捕获。

\begin{aligned} \mathcal{H}^{i} &=\operatorname{Aug}^{i}(\mathcal{T}) \\ &=\left\{\ldots, \operatorname{RS}^{i}\left(\boldsymbol{G}_{m}\right), \ldots\right\} \\ &=\left\{\ldots,\left\langle\mathbf{t}_{l}, \mathbf{t}_{l+h}\right\rangle, \ldots\right\} \\ &=\left\{\left\langle\mathbf{h}_{1}^{i, 1}, \mathbf{h}_{1}^{i, 2}\right\rangle, \cdots,\left\langle\mathbf{h}_{P}^{i, 1}, \mathbf{h}_{P}^{i, 2}\right\rangle\right\} \end{aligned}

3.3 细粒度兴趣提取器

MIE是通过水平的卷积核挖掘同类属性下不同商品之间的交互,比如价格或类型,但是没有考虑到相同商品受不同属性之间的影响,比如日常用品可能受价格影响较大,而球鞋受价格和类型影响大等等。因此,MIMFE是在MIE的基础上再使用垂直方向的卷积核,即在J方向上。表达如下,卷积核的构造和MIE类似,

\hat{g}_{m,n} \in \mathbb{R}^{n\times 1\times 1}

,同样存在N个这样的卷积核,并且n的大小从1到N增大。同理,序列长度

\Omega=\sum_{1 \leq n\leq N}{(J-n+1)}

\hat{G}_{m, n}^{j, l, k}=\operatorname{ReLU}\left(\boldsymbol{G}_{m}^{j: j+n-1, l, k} \circ \hat{g}_{m, n}\right)

MIMFE可以表达为下式,这里外城的序列是MIE得到的Gm的集合,内存是MIMFE对每一个Gm得到了一个序列集合。

\begin{aligned} \mathcal{R} &=\operatorname{MIMFE}(\mathbf{x}) \\ &=\left\{\ldots,\left\{\ldots, \operatorname{Flat}\left(\hat{\boldsymbol{G}}_{m, n}^{j,::}\right), \ldots\right\}, \ldots\right\} \\ &=\left\{\left\{\mathbf{r}_{1,1}, \cdots, \mathbf{r}_{1, \Omega}\right\}, \ldots,\left\{\mathbf{r}_{|\mathcal{T}|, 1}, \cdots, \mathbf{r}_{|\mathcal{T}|, \Omega}\right\}\right\} \end{aligned}

采用类似的增广方式,公式如下,

\begin{aligned} \mathcal{H}^{i f} &=\operatorname{Aug}^{i f}(\mathcal{R}) \\ &=\left\{\ldots, \operatorname{RS}^{i f}\left(\hat{\boldsymbol{G}}_{m, n}\right), \ldots\right\} \\ &=\left\{\ldots,\left\langle\mathbf{r}_{j}, \mathbf{r}_{j^{\prime}}\right\rangle, \ldots\right\} \\ &=\left\{\left\langle\mathbf{h}_{1}^{i f, 1}, \mathbf{h}_{1}^{i f, 2}\right\rangle, \cdots,\left\langle\mathbf{h}_{Q}^{i f, 1}, \mathbf{h}_{Q}^{i f, 2}\right\rangle\right\} \end{aligned}

4. 结果

不同方法对比

是否添加MISS对比

不同自监督方法对比

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-04-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 秋枫学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2.1 MISS框架
    • 2.1.1 多兴趣数据增广
      • 2.1.2 兴趣视图编码
        • 2.1.3 对比损失
        • 2.2 多任务学习
        • 3.1 MIE
        • 3.2 兴趣级别的增广
        • 3.3 细粒度兴趣提取器
        相关产品与服务
        智能数据分析
        腾讯云智能数据分析 Intellectual Data Analysis 是新一代云原生大数据敏捷分析解决方案。产品具备存算分离、动态扩缩容等特点,并内置事件、转化、留存、行为路径等成熟分析模型,提供高可用、低成本的全场景敏捷分析服务,可同时满足数据分析师、数据开发工程师和业务决策人的关键分析需求,帮助企业大幅降低数据分析成本,支撑业务更高效决策。
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档