前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >SIGIR'23 清华 | 会话推荐中的兴趣趋势挖掘与样本权重自适应分配

SIGIR'23 清华 | 会话推荐中的兴趣趋势挖掘与样本权重自适应分配

作者头像
秋枫学习笔记
发布2023-08-18 12:36:01
3810
发布2023-08-18 12:36:01
举报
文章被收录于专栏:秋枫学习笔记秋枫学习笔记

标题:Mining Interest Trends and Adaptively Assigning Sample Weight for Session-based Recommendation 地址:https://arxiv.53yu.com/pdf/2306.11610.pdf 会议:SIGIR 2023 学校:清华

1.导读

本文是针对会话推荐(session recommendation)提出的相关方法,会话推荐是基于短期内的用户行为推荐后续可能交互的商品。本文主要考虑的点是用户的偏好不一定与交互顺序密切相关,不同样本之间的重要性是不同的。针对上述问题,本文挖掘兴趣趋势并自适应分配样本权重,简称MTAW。

  • 基于用户当前的行为和他们以前的所有行为来建模用户的即时兴趣
  • 有区别地整合即时兴趣,以捕捉用户兴趣的变化趋势,从而做出更个性化的推荐。
  • 设计了一种新的损失函数,根据样本在当前时期的预测难度对样本进行动态加权

省流

  • 作者主要是通过注意力机制来捕获用户历史交互中的兴趣
    • 一方面将行为序列按时间顺序切分成不同分片,在每个分片中计算用户的兴趣偏好,称为每个时刻的即时兴趣
    • 一方面在上面分片计算得到的各个兴趣上利用注意力机制计算兴趣变化趋势
  • 不同样本的训练难度不同,正负样本也存在不平衡性,因此作者基于focal loss的思想,基于每个样本的预测打分对损失函数进行加权。

2.方法

image.png

2.1 问题定义

I=\{i_1,...,i_N\}

表示商品集合,每个会话中包含m个商品

s=[i_{s,1},...,i_{s,m}]

,其中的商品表示用户在会话中交互的商品。会话推荐的目标是基于会话中交互的历史商品,推荐下一时刻可能交互的商品,基于打分推荐前topk个。

2.2 用户兴趣建模

会话中的商品经过embedding层后,可以得到对饮过的embedding,再加上他们对应的位置embeddedding得到会话中的每个item的表征,表示如下,其中e是item的embedding,p是位置embedding。

x_i=e_i+p_i

2.2.1 兴趣跟踪层

用户兴趣通常是动态变化的,用户行为序列是用户兴趣的载体。本节在用户行为序列的基础上挖掘即时兴趣序列。使用注意力机制根据用户先前的交互提取用户在当前时刻的即时兴趣。表示为下式,

Attention(Q,K,V)=softmax(\frac{Q^{\top}K}{\sqrt{d}})V

需要确保的是,每个item只和他之前的item相依赖,基于长度为m的会话序列可以构造以下表征

X'_1=\{x_1\}

X_2'=\{x_1,x_2\}

X_m'=\{x_1,...,x_m\}

,对于这些构造后的表征,经过注意力机制可以得到下式,对所有的m个上述表征都进行注意力机制计算,可以得到

L'=\{l_1'...,l_m'\}

,然后在经过前馈网络得到

L=FFN(L')=MLP(ReLU(MLP(L')))

增加非线性。

Q_x=ReLU(MLP(x_t))\\ l_t'=Attention(Q_x,X_t',X_t')

经过FFN后的过程和transformer有点类似,包括残差链接,Layer norm,整体的兴趣跟踪层可以表示为

L=ITL(X)

2.2.2 兴趣增强层

用户兴趣的演变将直接影响用户对下一个商品的选择。本节设计了兴趣增强层,对用户兴趣的演变过程进行深入挖掘和分析。该层将关于兴趣演变趋势的信息注入到会话表征中。为了获得用户对下一个商品兴趣的变化趋势,同样采用注意力机制来区分性地整合即时兴趣如下式,其中

Q_l

表示L中的最后一个元素

l_m

O=Attention(Q_l,L,L)

2.3 推荐和优化

2.3.1 推荐

在推荐过程中,对于每一个候选商品i,计算相关性分数,公式如下,

\begin{array}{l} \hat{O}=L2Norm(O), \hat{x}_{i}=L2Norm\left(x_{i}\right), \\ \hat{y}_{i}=\operatorname{softmax}\left(\hat{O}^{T} \hat{x}_{i}\right), \end{array}

2.3.2 优化

样本之间存在差异,模型预测不同会话的难度也存在差异。正负样本不平衡,负样本会主导损失的更新。本文为不同的样本分配不同的权重。基于Focal loss,本文根据当前epoch中样本的预测偏差分配权重,从而构建自适应权重(AW)损失函数,在交叉熵损失函数中添加了一个调制因子。公式如下,其中γ是温度系数。

\begin{array}{l} p_{i}=\left\{\begin{array}{rr} \hat{y}_{i}, & \text { if } y=1, \\ 1-\hat{y}_{i}, & \text { otherwise } \end{array}\right. \\ \mathcal{L}=-\sum_{i=1}^{M}\left(2-2 p_{i}\right)^{\gamma} \log \left(p_{i}\right), \end{array}

3.结果

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-06-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 秋枫学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.导读
  • 2.方法
    • 2.1 问题定义
      • 2.2 用户兴趣建模
        • 2.2.1 兴趣跟踪层
        • 2.2.2 兴趣增强层
      • 2.3 推荐和优化
        • 2.3.1 推荐
        • 2.3.2 优化
    • 3.结果
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档