前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >KDD'22 | 自监督超图Transformer构建推荐系统

KDD'22 | 自监督超图Transformer构建推荐系统

作者头像
秋枫学习笔记
发布2022-09-19 11:53:25
1K0
发布2022-09-19 11:53:25
举报
文章被收录于专栏:秋枫学习笔记

标题:Self-Supervised Hypergraph Transformer for Recommender Systems 链接:https://arxiv.org/pdf/2207.14338.pdf 代码:https://github.com/akaxlh/SHT 会议:KDD 2022 学校:港大

1. 导读

现有基于 GNN 的推荐系统的思想是递归地执行沿用户-商品交互边传递消息,从而得到相应的embedding。尽管它们很有效,但大多数当前的推荐模型都依赖于充足且高质量的训练数据,因此学习的表征可以很好地捕捉用户偏好。许多实际推荐场景中的用户行为数据通常是嘈杂的并且呈现出偏态分布,这可能导致基于 GNN 的模型中的表征性能欠佳。本文提出了 SHT,自监督超图Transformer框架 (SHT),它通过以显式方式探索全局协作关系来增强用户表征。具体来说,利用图协同过滤范式使用超图Transformer来维持用户和商品之间的全局协作效果。利用提炼的全局上下文,提出了一种跨视图生成自监督学习组件,用于在用户-商品交互图上进行数据增强,以增强推荐系统的鲁棒性。

2. 方法

image.png

2.1 局部图结构学习

首先,将用户和商品嵌入到 d 维潜在空间中,以编码他们的交互模式。对于用户

u_i

和商品

v_j

,分别生成embedding向量

e_i,e_j \in \mathbb{R}^d

。聚合所有用户和商品embedding构成相应的矩阵

E^{(u)} \in \mathbb{R}^{I \times d}

E^{(v)} \in \mathbb{R}^{J \times d}

局部结构的学习采用常见的图神经网络方式,将每个节点的相邻子图结构编码为图拓扑感知embedding,以将拓扑位置信息注入图Transformer。SHT 采用了一个两层的轻量级图卷积网络,如下所示,其中

\bar{\mathcal{A}}

表示标准化后的图邻接矩阵,计算方式为

\overline{\mathcal{A}}_{i, j}=\mathcal{A}_{i, j} /\left(\mathbf{D}_{i}^{(u) 1 / 2} \mathbf{D}_{j}^{(v) 1 / 2}\right)

,D分别为用户和商品的度矩阵。

\overline{\mathbf{E}}^{(u)}=\operatorname{GCN}^{2}\left(\mathbf{E}^{(v)}, \mathcal{G}\right)=\overline{\mathcal{A}} \cdot \overline{\mathcal{A}}^{\top} \mathbf{E}^{(u)}+\overline{\mathcal{A}} \cdot \mathbf{E}^{(v)}

2.2 超图Transformer学习全局关系

SHT 采用了超图Transformer框架,

  • i) 通过使用自适应超图关系学习增强用户协作关系建模来缓解噪声问题;
  • ii) 将知识从密集的用户/商品节点迁移到稀疏节点。

具体来说,SHT 使用了类似于 Transformer 的注意力机制,用于结构学习。编码的图拓扑感知embedding被注入到节点表征中以保留图局部性和拓扑位置。同时,多通道注意力进一步促进在 SHT 中的结构学习。

SHT 通过将对应于id的embedding(

e_i,e_j

)与拓扑感知embedding结合生成输入的用户和商品embedding,表示如下,然后,SHT 使用

\tilde{e}_i,\tilde{e}_j

作为输入进行基于超图的信息传播和超图结构学习。利用K个超边从全局角度提炼协作关系。

\tilde{e}_i=e_i+\bar{e}_i; \tilde{e}_j=e_j+\bar{e}_j

2.2.1 节点到超边的信息传播

商品和用户的表示是类似的,这里以用户节点为例。从用户节点到用户侧超边的传播可以表示如下,其中

\tilde{z}_k

表示第k条超边的embedding,通过拼接H个头的超边embedding得到,通过注意力机制计算得到H个头的embedding。

\tilde{\mathbf{z}}_{k}=\|_{h=1}^{H} \overline{\mathbf{z}}_{k, h} ; \quad \overline{\mathbf{z}}_{k, h}=\sum_{i=1}^{I} \mathbf{v}_{i, h} \mathbf{k}_{i, h}^{\top} \mathbf{q}_{k, h}

q,k,v的计算方式如下,Z为K条超边的embedding矩阵,K,V为相应的权重

\mathbf{q}_{k, h}=\mathbf{Z}_{k, p_{h-1}: p_{h}} ; \quad \mathbf{k}_{i, h}=\mathbf{K}_{p_{h-1}: p_{h},:}, \tilde{\mathbf{e}}_{i} ; \quad \mathbf{v}_{i, h}=\mathbf{V}_{p_{h-1}: p_{h},:}, \tilde{\mathbf{e}}_{i}

为了进一步挖掘超边之间复杂的非线性特征交互,SHT 在用户侧和商品侧都增加了两层分层超图神经网络。最终的超边embedding通过以下方式计算,H为可学习参数,

\hat{Z}=HHGN^2(\tilde{Z}),HHGN(X)=\sigma(\mathcal{H}\cdot X+X)

2.2.2 超边到节点的信息传播

使用最终的超边embedding

\hat{Z}

,通过类似但相反的过程将信息从超边传播到用户/商品节点,

\tilde{e}'_i

为用户

u_i

的新embedding,q,k,v的计算方式与前面类似,具体公式如下,

\tilde{\mathbf{e}}_{i}^{\prime}=\|_{h=1}^{H} \overline{\mathbf{e}}_{i, h}^{\prime} ; \quad \overline{\mathbf{e}}_{i, h}^{\prime}=\sum_{k=1}^{K} \mathbf{v}_{k, h}^{\prime} \mathbf{k}_{k, h}^{\prime \top} \mathbf{q}_{i, h}^{\prime}
\mathbf{q}_{i, h}^{\prime}=\mathbf{k}_{i, h} ; \quad \mathbf{k}_{k, h}^{\prime}=\mathbf{q}_{k, h} ; \quad \mathbf{v}_{k, h}^{\prime}=\mathbf{V}_{p_{h-1}: p_{h},:}\hat{\mathbf{z}}_{k}

2.2.3 交替超图传播

通过堆叠多个超图Transformer层来进一步传播编码的全局协作关系。通过这种方式,SHT 框架可以通过迭代超图传播来表征远距离用户/商品依赖关系。以第

l-1

次迭代中的embedding表

\tilde{E}_{l-1}

作为输入,SHT 递归地应用超图编码(由 HyperTrans(·) 表示)并获得最终节点embedding

\hat{E}

,公式如下,

\tilde{E}_l=HyperTrans(\tilde{E}_{l-1});\hat{E}=\sum_{l=1}^L{\tilde{E}_l}

预测用户

u_i

和商品

v_j

的分数为

p_{i,j}=\hat{e}_i^{(u)\top}\hat{e}_j^{(v)}

2.3 局部全局自增强学习

超图Transformer可以解决数据稀疏的问题,但是,用于局部协作关系建模的图拓扑感知embedding可能仍会受到交互数据噪声的影响。为了应对这一挑战,作者通过局部拓扑感知embedding和全局超图学习之间的自增强学习来增强模型训练。具体来说,用于局部信息提取的拓扑感知embedding增加了一项额外的任务,以区分观察到的用户-商品交互图中采样边的稳固性。这里,solidity 是指边没有噪声的概率,它在增强任务中的标签是根据学习到的超图依赖关系和表征来计算的。通过这种方式,SHT 将知识从超图Transformer中的高级和去噪特征迁移到低级和嘈杂的拓扑感知embedding,这有助于重新校准局部图结构并提高模型的鲁棒性。流程如图 2 所示。

2.3.1 元网络的 Solidity 标签

在SHT 模型中,学习的超图依赖表征可以作为有用的知识,通过将每条边与学习的可靠性分数相关联来对观察到的用户-商品交互进行降噪。具体来说,在估计边

(u_i,v_j)

的可靠性分数时重用key embedding

k_{i,h},k_{j,h}

来表示用户

u_i

和商品

v_j

。这是因为key向量是为关系建模而生成的,可以被认为是交互可靠性估计的有用信息源。此外,将超边embedding Z,将全局特征引入到可靠性标记中。具体来说,首先连接多头key向量并应用一个简单的感知机来消除用户/商品超边关系学习和用户-商品关系学习之间的差距。更新的用户/商品embedding计算方式如下,其中

\phi

为感知机,

\Gamma_{i}=\phi^{(u)}\left(\|_{h=1}^{H} \mathbf{k}_{i, h}\right) ; \quad \Gamma_{j}=\phi^{(v)}\left(\|_{h=1}^{H} \mathbf{k}_{j, h}\right)
\phi(\mathbf{x} ; \mathbf{Z})=\sigma(\mathbf{W} \mathbf{x}+\mathbf{b}) ; \quad \mathbf{W}=\mathbf{V}_{1} \overline{\mathbf{z}}+\mathbf{W}_{0} ; \quad \mathbf{b}=\mathbf{V}_{2} \overline{\mathbf{z}}+\mathbf{b}_{0}

使用更新的用户/商品embedding

\Gamma_i,\Gamma_j

,SHT 通过两层神经网络计算边

(u_i,v_j)

的可靠性标签,如下所示,

s_{i, j}=\operatorname{sigm}\left(\mathbf{d}^{\top} \cdot \sigma\left(\mathbf{T} \cdot\left[\Gamma_{i} ; \Gamma_{j}\right]+\Gamma_{i}+\Gamma_{j}+\mathbf{c}\right)\right)

其中

s_{i,j}

表示超图Transformer给出的可靠性分数。sigm(·) 表示限制 𝑠𝑖,𝑗 取值范围的 sigmoid 函数。d, c为可学习参数。

2.3.2 成对的 Solidity 排名

为了增强拓扑embedding的优化,SHT 采用了一个额外的目标函数,以使用上述

s_{i,j}

作为训练标签来更好地估计边的Solidity 。对 G 中观察到的边的R对边

\{(e_{1,1},e_{1,2}),...,(e_{R,1},e_{R,2})\}

进行采样,然后SHT 使用拓扑感知embedding预测solidity。损失函数如下,其中

\hat{s}

为预测的solidity分数,s为上述通过Transformer得到的标签。

\begin{aligned} \mathcal{L}_{s a}=& \sum_{r=1}^{R} \max \left(0,1-\left(\hat{s}_{u_{r, 1}, v_{r, 1}}-\hat{s}_{u_{r, 2}, v_{r, 2}}\right)\left(s_{u_{r, 1}, v_{r, 1}}-s_{u_{r, 2}, v_{r, 2}}\right)\right) \\ & \hat{s}_{u_{r, 1}, v_{r, 1}}=\mathbf{e}_{u_{r, 1}}^{\top} \mathbf{e}_{v_{r, 1}} ; \quad \hat{s}_{u_{r, 2}, v_{r, 2}}=\mathbf{e}_{u_{r, 2}}^{\top} \mathbf{e}_{v_{r, 2}} \end{aligned}

2.4 模型学习

采样得到R'条正样本边和负样本边,构建为

\{(e_{1,1},e_{1,2}),...,(e_{R',1},e_{R',2})\}

e_{r,1},e_{r,2}

分别表示正负样本。构建损失函数如下,

\mathcal{L}=\sum_{r=1}^{R^{\prime}} \max \left(0,1-\left(p_{u_{r, 1}, v_{r, 1}}-p_{u_{r, 2}, v_{r, 2}}\right)\right)+\lambda_{1} \mathcal{L}_{\mathrm{sa}}+\lambda_{2}\|\Theta\|_{\mathrm{F}}^{2}

3. 结果

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-08-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 秋枫学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2.1 局部图结构学习
  • 2.2 超图Transformer学习全局关系
    • 2.2.1 节点到超边的信息传播
      • 2.2.2 超边到节点的信息传播
        • 2.2.3 交替超图传播
        • 2.3 局部全局自增强学习
          • 2.3.1 元网络的 Solidity 标签
            • 2.3.2 成对的 Solidity 排名
            • 2.4 模型学习
            相关产品与服务
            智能数据分析
            腾讯云智能数据分析 Intellectual Data Analysis 是新一代云原生大数据敏捷分析解决方案。产品具备存算分离、动态扩缩容等特点,并内置事件、转化、留存、行为路径等成熟分析模型,提供高可用、低成本的全场景敏捷分析服务,可同时满足数据分析师、数据开发工程师和业务决策人的关键分析需求,帮助企业大幅降低数据分析成本,支撑业务更高效决策。
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档