Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >【论文阅读】Temporal knowledge graph reasoning based on evolutional representation learning

【论文阅读】Temporal knowledge graph reasoning based on evolutional representation learning

作者头像
EmoryHuang
发布于 2023-04-06 01:56:47
发布于 2023-04-06 01:56:47
8200
举报
文章被收录于专栏:EmoryHuang's BlogEmoryHuang's Blog

【论文阅读】Temporal knowledge graph reasoning based on evolutional representation learning

Metadata

authors:: Zixuan Li, Xiaolong Jin, Wei Li, Saiping Guan, Jiafeng Guo, Huawei Shen, Yuanzhuo Wang, Xueqi Cheng container:: Proceedings of the 44th international ACM SIGIR conference on research and development in information retrieval year:: 2020 DOI:: 10.1145/3404835.3462963 rating:: ⭐⭐⭐ share:: true comment:: 时间知识图谱TKG推理,时间片上采用GCN,顺序关系上采用GRU,并融合静态信息,同时预测实体和关系。


前言

这次是一篇关于时间知识图谱(TKG)的论文,现在有很多论文把知识图谱(KG)放到POI预测里,也是想了解尝试一下。

SIGIR 2021:Temporal Knowledge Graph Reasoning Based on Evolutional Representation Learning

问题描述

一个时间知识图谱TKG可以定义为带时间戳的知识图谱KGs序列,即G={G1,G2,⋯ ,Gt,⋯ }G=\{G_1,G_2,\cdots,G_t,\cdots\}G={G1​,G2​,⋯,Gt​,⋯}。对于每个KG,Gt=(V,R,εt)G_t=(\mathcal{V},\mathcal{R},\mathcal{\varepsilon}_t)Gt​=(V,R,εt​)表示一个在ttt时刻的有向的多关系图,其中V\mathcal{V}V表示实体,R\mathcal{R}R表示关系,εt\mathcal{\varepsilon}_tεt​表示在ttt时刻的事实集。事实集中的事实(fact)可以用四元组表示(s,r,o,t),s,o∈V,r∈R(s,r,o,t), s,o\in\mathcal{V}, r\in\mathcal{R}(s,r,o,t),s,o∈V,r∈R,在传统KG的基础上加上时间戳。此外,对于每个四元组(s,r,o,t)(s,r,o,t)(s,r,o,t),其逆四元组(o,r−1,s,t)(o,r^{-1},s,t)(o,r−1,s,t)也加入数据集。

文中的静态图表示为Gs=(Vs,Rs,εs)G^s=(\mathcal{V}^s,\mathcal{R}^s,\mathcal{\varepsilon}^s)Gs=(Vs,Rs,εs),对应实体集合,关系集合和事实集合。

Task 1. Entity Prediction. 给定query (s,r,?,t+1)(s,r,?,t+1)(s,r,?,t+1),根据实体sss,关系rrr和历史KG序列Gt−m+1:tG_{t-m+1:t}Gt−m+1:t​计算对象实体概率:

p⃗(o∣s,r,Gt−m+1:t)=p⃗(o∣s,r,Ht,Rt)\vec{p}(o\vert s,r,G_{t-m+1:t})=\vec{p}(o\vert s,r, \mathbf{H}_t, \mathbf{R}_t) p​(o∣s,r,Gt−m+1:t​)=p​(o∣s,r,Ht​,Rt​)

Task 2. Relation Prediction. 给定query (s,?,o,t+1)(s,?,o,t+1)(s,?,o,t+1),根据实体s,os,os,o和历史KG序列Gt−m+1:tG_{t-m+1:t}Gt−m+1:t​计算关系概率:

p⃗(r∣s,o,Gt−m+1:t)=p⃗(r∣s,o,Ht,Rt)\vec{p}(r\vert s,o,G_{t-m+1:t})=\vec{p}(r\vert s,o, \mathbf{H}_t, \mathbf{R}_t) p​(r∣s,o,Gt−m+1:t​)=p​(r∣s,o,Ht​,Rt​)

除了把序列关系作为一个个时间切片之外,另一种考虑序列的方式是把时间信息放到关系中表示。

OverView

论文认为现有的方法主要有三个限制:

  1. 主要关注给定查询的实体和关系,忽略每个时间戳KG中所有事实之间的结构依赖性;
  2. 为每个查询单独编码历史记录,效率低下;
  3. 忽略实体的某些静态属性(如实体类型)的作用;
  4. 现有方法仅关注实体预测,无法同时解决关系预测问题。

本文将时间知识图谱作为一个序列考虑,并通过同时建立整个序列的模型,将所有历史事实编码为实体和关系的表示。提出了GCN-based Recurrent Evolution network(RE-GCN),学习每个时间戳实体和关系的演化表示。对于每个演化单元,使用关系感知GCN来捕获KG中的结构依赖性,此外通过加入静态图约束,将实体静态属性合并进来以获得更好的实体表示。论文的主要贡献如下:

  1. 论文提出了一种演化表示学习模型 RE-GCN,用于时间推理,考虑了KG中并发事实之间的结构依赖性、时间相邻事实之间的序列模式以及实体的静态属性。
  2. 从KG序列角度描述TKG,RE-GCN有效地将TKG中的所有历史信息建模为演化表示,可同时用于实体和关系预测。

RE-GCN

模型架构如下图所示:

The Evolution Unit

演化单元由三部分组成:一个关系感知的GCN,两个门控循环组件以及一个静态图约束组件。关系感知的GCN在每个时间戳捕捉KG内部的结构性依赖关系。两个门控循环组件对历史KG序列进行回归建模,包括一个时间门控循环组件和一个GRU。静态图约束组件通过在静态嵌入和实体的演化嵌入之间添加一些约束,将静态属性集成到演化嵌入中。

具体来说,演化单元将长度为mmm的KG序列{Gt−m+1,⋯ ,Gt}\{G_{t-m+1},\cdots,G_t\}{Gt−m+1​,⋯,Gt​},映射为实体序列{Ht−m+1,⋯ ,Ht}\{\mathbf{H}_{t-m+1},\cdots,\mathbf{H}_t\}{Ht−m+1​,⋯,Ht​}和关系序列{Rt−m+1,⋯ ,Rt}\{\mathbf{R}_{t-m+1},\cdots,\mathbf{R}_t\}{Rt−m+1​,⋯,Rt​}。

Structural Dependencies among Concurrent Facts

论文使用一个ω\omegaω层的关系感知的GCN来捕获结构依赖关系。具体来说,对于ttt时刻的KG,对象实体ooo通过消息传递获取主体实体以及关系的信息:

h⃗o,tl+1=f(1co∑(s,r),∃(s,r,o)∈εtW1l(h⃗s,tl+r⃗t)+W2lh⃗o,tl)\vec{h}_{o,t}^{l+1} = f \left( \frac{1}{c_o} \sum_{(s,r),\exists(s,r,o)\in\varepsilon_t} \mathbf{W}_1^l(\vec{h}_{s,t}^l + \vec{r}_t) + \mathbf{W}_2^l\vec{h}_{o,t}^l \right) ho,tl+1​=f⎝⎛​co​1​(s,r),∃(s,r,o)∈εt​∑​W1l​(hs,tl​+rt​)+W2l​ho,tl​⎠⎞​

其中h⃗s,tl,h⃗o,tl,r⃗t\vec{h}_{s,t}^l, \vec{h}_{o,t}^l, \vec{r}_ths,tl​,ho,tl​,rt​分别表示lll层ttt时刻的实体s,os,os,o和关系rrr;W1l,W2l\mathbf{W}_1^l,\mathbf{W}_2^lW1l​,W2l​为参数矩阵;h⃗s,tl+r⃗t\vec{h}_{s,t}^l + \vec{r}_ths,tl​+rt​通过向量加法连接实体和关系;coc_oco​为实体ooo的入度;f(⋅)f(\cdot)f(⋅)表示RReLU激活函数。

Sequential Patterns across Temporally Adjacent Facts

对于一个实体ooo,其历史事实中所包含的顺序模式反映了其行为趋势和偏好。为了尽可能多地涵盖历史事实,论文利用了一个时间门控循环组件来缓解over-smoothing problem和vanishing gradient problem,具体来说,将实体矩阵Ht\mathbf{H}_tHt​分为两部分,Htω\mathbf{H}_t^\omegaHtω​和Ht−1\mathbf{H}_{t-1}Ht−1​,分别表示关系感知的GCN在ttt时刻最后一层的输出和前一个时刻的信息:

Ht=Ut⊗Htω+(1−Ut)⊗Ht−1\mathbf{H}_t = \mathbf{U}_t \otimes \mathbf{H}_t^{\omega} + (1-\mathbf{U}_t)\otimes \mathbf{H}_{t-1} Ht​=Ut​⊗Htω​+(1−Ut​)⊗Ht−1​

其中⊗\otimes⊗表示点乘。Ut∈Rd×d\mathbf{U}_t\in\mathbb{R}^{d\times d}Ut​∈Rd×d表示为:

Ut=σ(W4Ht−1+b)\mathbf{U}_t = \sigma(\mathbf{W}_4\mathbf{H}_{t-1}+\mathbf{b}) Ut​=σ(W4​Ht−1​+b)

其中σ(⋅)\sigma(\cdot)σ(⋅)表示sigmoid激活函数。除了实体关系之外,论文使用GRU对关系的顺序模式进行建模。GRU在ttt时刻的输入为进行平均池化后的t−1t-1t−1时刻与rrr相关的实体:

r⃗t′=[pooling(Ht−1,Vr,t);r⃗]\vec{r}_t' = [pooling(\mathbf{H}_{t-1,\mathcal{V}_{r,t}});\vec{r}] rt′​=[pooling(Ht−1,Vr,t​​);r]

其中r⃗\vec{r}r关系rrr的embedding表示,[;][;][;]表示拼接操作。

Rt=GRU(Rt−1,Rt′)\mathbf{R}_t = GRU(\mathbf{R}_{t-1}, \mathbf{R}_t') Rt​=GRU(Rt−1​,Rt′​)

其中Rt′∈R∣R∣×d\mathbf{R}_t'\in\mathbb{R}^{\vert\mathcal{R}\vert\times d}Rt′​∈R∣R∣×d由关系r⃗t′\vec{r}_t'rt′​组成。

Static Properties

除了历史KG序列中包含的信息外,实体的一些静态属性,可以看作是TKG的背景知识,可以帮助进行更准确的实体的进化表示。这里,论文使用了一个单层的R-GCN获取静态实体嵌入表示:

h⃗is=Υ(1ci∑(rs,j),∃(i,rs,j)∈εsWrsh⃗i′s(j))\vec{h}_i^s=\varUpsilon \left( \frac{1}{c_i} \sum_{(r^s,j),\exists(i,r^s,j)\in\varepsilon^s} \mathbf{W}_{r^s}\vec{h}_i'^{s}(j) \right) his​=Υ⎝⎛​ci​1​(rs,j),∃(i,rs,j)∈εs∑​Wrs​hi′s​(j)⎠⎞​

其中h⃗is,h⃗j′s\vec{h}_i^s,\vec{h}_j'^{s}his​,hj′s​分别表示Hs\mathbf{H}^sHs和H′s\mathbf{H}'^sH′s的第iii和第jjj行;Wrs\mathbf{W}_{r^s}Wrs​表示关系矩阵;Υ(⋅)\varUpsilon(\cdot)Υ(⋅)表示ReLU函数;cic_ici​表示与实体iii相关的实体数量。

为了学习实体矩阵Ht−m,Ht−m+1,⋯ ,Ht\mathbf{H}_{t-m},\mathbf{H}_{t-m+1},\cdots,\mathbf{H}_tHt−m​,Ht−m+1​,⋯,Ht​中的静态关系,论文设定了一个演化表示和静态表示之间的角度,它会随着时间的推移而增加,实体演化的允许的可变范围也不断拓展。

感觉可以理解为近期的动态偏好这种概念。

θx=min⁡(γx,90∘)\theta_x = \min(\gamma x,90^\circ) θx​=min(γx,90∘)

其中γ\gammaγ表示角度增加幅度,x∈[0,1,⋯ ,m]x\in[0,1,\cdots,m]x∈[0,1,⋯,m]。两个嵌入表示的最大角度为90∘90^\circ90∘。

接着计算两个嵌入实体之间的余弦值cos⁡(h⃗is,h⃗t−m+x,i)\cos(\vec{h}_i^s, \vec{h}_{t-m+x,i})cos(his​,ht−m+x,i​),可以得到ttt时刻静态图的损失函数:

Lxst=∑i=0∣V∣−1max⁡{cos⁡θx−cos⁡(h⃗is,h⃗t−m+x,i),0}L_x^{st} = \sum_{i=0}^{\vert\mathcal{V}\vert-1} \max\{\cos\theta_x - \cos(\vec{h}_i^s, \vec{h}_{t-m+x,i}),0\} Lxst​=i=0∑∣V∣−1​max{cosθx​−cos(his​,ht−m+x,i​),0}

因此静态图的损失函数为:Lst=∑x=0mLxstL^{st} = \sum_{x=0}^m L_x^{st}Lst=∑x=0m​Lxst​。

可以理解为利用余弦函数控制两个嵌入表示的比例问题。

Score Functions for Different Tasks

论文使用ConvTransE作为解码器,它包含一个一维卷积层和一个全连接层,分别得到实体和关系的概率:

p⃗(o∣s,r,Ht,Rt)=σ(HtConvTransE(s⃗t,r⃗t))\vec{p}(o\vert s,r, \mathbf{H}_t, \mathbf{R}_t) = \sigma(\mathbf{H}_t \text{ConvTransE}(\vec{s}_t,\vec{r}_t)) p​(o∣s,r,Ht​,Rt​)=σ(Ht​ConvTransE(st​,rt​))

p⃗(r∣s,o,Ht,Rt)=σ(RtConvTransE(s⃗t,o⃗t))\vec{p}(r\vert s,o, \mathbf{H}_t, \mathbf{R}_t) = \sigma(\mathbf{R}_t \text{ConvTransE}(\vec{s}_t,\vec{o}_t)) p​(r∣s,o,Ht​,Rt​)=σ(Rt​ConvTransE(st​,ot​))

其中σ(⋅)\sigma(\cdot)σ(⋅)表示sigmoid函数,ConvTransE(s⃗t,r⃗t),ConvTransE(s⃗t,o⃗t)∈Rd×1\text{ConvTransE}(\vec{s}_t,\vec{r}_t), \text{ConvTransE}(\vec{s}_t,\vec{o}_t)\in\mathbb{R}^{d\times 1}ConvTransE(st​,rt​),ConvTransE(st​,ot​)∈Rd×1。

Parameter Learning

实体预测任务和关系预测任务都可以看作是多标签学习问题,因此实体和关系的损失函数为:

Le=∑t=0T−1∑(s,r,o,t+1)∈εt+1∑i=0∣V∣−1yt+1,ielog⁡pi(o∣s,r,Ht,Rt)L^e = \sum_{t=0}^{T-1}\sum_{(s,r,o,t+1)\in\varepsilon_{t+1}}\sum_{i=0}^{\vert\mathcal{V}\vert-1} y_{t+1,i}^e \log p_i(o\vert s,r, \mathbf{H}_t, \mathbf{R}_t) Le=t=0∑T−1​(s,r,o,t+1)∈εt+1​∑​i=0∑∣V∣−1​yt+1,ie​logpi​(o∣s,r,Ht​,Rt​)

Lr=∑t=0T−1∑(s,r,o,t+1)∈εt+1∑i=0∣R∣−1yt+1,irlog⁡pi(r∣s,o,Ht,Rt)L^r = \sum_{t=0}^{T-1}\sum_{(s,r,o,t+1)\in\varepsilon_{t+1}}\sum_{i=0}^{\vert\mathcal{R}\vert-1} y_{t+1,i}^r \log p_i(r\vert s,o, \mathbf{H}_t, \mathbf{R}_t) Lr=t=0∑T−1​(s,r,o,t+1)∈εt+1​∑​i=0∑∣R∣−1​yt+1,ir​logpi​(r∣s,o,Ht​,Rt​)

最终的损失函数为:

L=λ1Le+λ2Lr+LstL = \lambda_1L^e + \lambda_2L^r + L^{st} L=λ1​Le+λ2​Lr+Lst

其中λ1,λ2\lambda_1,\lambda_2λ1​,λ2​为超参数。

实验

Datasets

  • ICEWS18,ICEWS14,ICEWS05-15:综合危机预警系统,监测、评估和预测国家、地方和内部危机
  • WIKI:维基百科
  • YAGO:开源知识数据库
  • GDELT:全球事件、语言和语气数据库

Results

Prediction Time

Ablation studies

Case study

总结

论文主要通过时间知识图谱进行建模,在每个时间片上采用GCN,在时间维度上采用GRU,并补充静态关系信息,同时对实体和关系进行预测。总体下来感觉对TKG进行处理的过程可以参考,但是能不能应用到POI,以及TKG该如何很好地建立还是一个问题。

参考资料

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-04-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
authors:: Zhilun Zhou, Yu Liu, Jingtao Ding, Depeng Jin, Yong Li container:: Proceedings of the ACM web conference 2023 year:: 2023 DOI:: 10.1145/3543507.3583239 rating:: ⭐⭐⭐⭐ share:: true comment:: 基于LBSN构建知识图谱,分别学习全局知识和领域分层知识
EmoryHuang
2023/05/18
4470
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
【论文阅读】DisenPOI Disentangling sequential and geographical influence for point-of-interest recommendat
2023 年,WSDM 的一篇论文:DisenPOI: Disentangling sequential and geographical influence for point-of-interest recommendation
EmoryHuang
2023/03/13
5860
【论文阅读】DisenPOI Disentangling sequential and geographical influence for point-of-interest recommendat
【论文阅读】HIP network:Historical information passing network for extrapolation reasoning on temporal kno
authors:: Yongquan He, Peng Zhang, Luchen Liu, Qi Liang, Wenyuan Zhang, Chuang Zhang container:: Proceedings of the thirtieth international joint conference on artificial intelligence, IJCAI-21 year:: 2021 DOI:: 10.24963/ijcai.2021/264 rating:: ⭐ share:: false comment:: 时间知识图谱TKG,时间片上采用CompGCN,顺序关系上同时考虑时间片的顺序关系和实体对的顺序关系,并以三个得分函数为辅助进行推理。
EmoryHuang
2023/04/22
6040
【论文阅读】HIP network:Historical information passing network for extrapolation reasoning on temporal kno
【论文阅读】Curriculum Meta-Learning for Next POI Recommendation
authors:: Yudong Chen, Xin Wang, Miao Fan, Jizhou Huang, Shengwen Yang, Wenwu Zhu container:: Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining year:: 2021 DOI:: 10.1145/3447548.3467132 rating:: ⭐⭐⭐ share:: false comment:: 着眼于 POI 推荐的城市转移问题,使用元学习概念,并引入了困难度 Hardness 概念
EmoryHuang
2022/09/29
2780
【论文阅读】Curriculum Meta-Learning for Next POI Recommendation
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
authors:: Song Yang, Jiamou Liu, Kaiqi Zhao container:: Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval year:: 2022 DOI:: 10.1145/3477495.3531983 rating:: ⭐⭐️⭐️ share:: false comment:: 论文的主干网络仍然是 Transformer,通过构建 POI 之间的转移权重图(trajectory flow map)并通过 GCN 进行 POI Embedding;最后,又同时预测 POI、时间、类别,加强了损失函数。
EmoryHuang
2022/10/31
7950
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
【论文阅读】DynaPosGNN:Dynamic-Positional GNN for Next POI Recommendation
authors:: Junbeom Kim, Sihyun Jeong, Goeon Park, Kihoon Cha, Ilhyun Suh, Byungkook Oh container:: 2021 International Conference on Data Mining Workshops (ICDMW) year:: 2021 DOI:: 10.1109/ICDMW53433.2021.00012 rating:: ⭐⭐ share:: true comment:: 模型完全采用GNN进行Embedding,同时待预测POI的访问时间也作为参数进行输入,与传统的POI预测问题有些出入。
EmoryHuang
2022/10/31
5800
【论文阅读】DynaPosGNN:Dynamic-Positional GNN for Next POI Recommendation
Hands on Reinforcement Learning 03
马尔可夫决策过程(Markov decision process,MDP)是强化学习的重要概念。要学好强化学习,我们首先要掌握马尔可夫决策过程的基础知识。前两章所说的强化学习中的环境一般就是一个马尔可夫决策过程。与多臂老虎机问题不同,马尔可夫决策过程包含状态信息以及状态之间的转移机制。如果要用强化学习去解决一个实际问题,第一步要做的事情就是把这个实际问题抽象为一个马尔可夫决策过程,也就是明确马尔可夫决策过程的各个组成要素。本章将从马尔可夫过程出发,一步一步地进行介绍,最后引出马尔可夫决策过程。
一只野生彩色铅笔
2023/04/04
3630
Hands on Reinforcement Learning 03
当胶囊网络遇到序列推荐
预备知识:胶囊网络https://zhuanlan.zhihu.com/p/264910554
秋枫学习笔记
2022/09/19
1.1K0
RNN
循环神经网络(RNN)是一类具有短期记忆能力的神经网络。在循环神经网络中,神经元不但可以接受其他神经元的信息,也可以接受自身的信息,形成具有环路的网络结构。而前馈网络是一种静态网络,不具备记忆能力。
hotarugali
2022/03/09
1.4K0
RNN
SIGIR'21 快手 | 基于图神经网络的序列推荐,兴趣的挖掘与动态变化
首先这里涉及到序列推荐的概念:序列推荐就是根据用户的历史行为来预测用户的后续交互。现存两个挑战:
秋枫学习笔记
2022/09/19
1K0
Hands on Reinforcement Learning 05 Temporal Difference
第 4 章介绍的动态规划算法要求马尔可夫决策过程是已知的,即要求与智能体交互的环境是完全已知的(例如迷宫或者给定规则的网格世界)。在此条件下,智能体其实并不需要和环境真正交互来采样数据,直接用动态规划算法就可以解出最优价值或策略。这就好比对于有监督学习任务,如果直接显式给出了数据的分布公式,那么也可以通过在期望层面上直接最小化模型的泛化误差来更新模型参数,并不需要采样任何数据点。
一只野生彩色铅笔
2023/04/06
6590
Hands on Reinforcement Learning 05 Temporal Difference
【论文笔记】A Graph-based and Copy-augmented Multi-domain Dialogue State Tracking
​ 大多数现有的方法都在单个领域上独立训练 DST,而忽略了跨领域之间的信息的有效共享。
yhlin
2023/03/23
8460
【论文笔记】A Graph-based and Copy-augmented Multi-domain Dialogue State Tracking
CIKM'21序列推荐|基于区域的embedding捕获用户行为中的偏好
可以先看背景和总结部分,对整个文章做的工作进行了简单的概括,公式太长的可以左右滑动哦~
秋枫学习笔记
2022/09/19
4960
图神经网络3-应用:零样本动作识别
论文:I Know the Relationships: Zero-Shot Action Recognition via Two-Stream Graph Convolutional Networks and Knowledge Graphs
孔西皮
2021/03/04
1.1K0
图神经网络3-应用:零样本动作识别
Cross-Domain Review Helpfulness Prediction -论文阅读
问题:如何估计评论的有用性并将其恰当地推荐给消费者(review helpfulness prediction)
百川AI
2022/01/04
4260
Cross-Domain Review Helpfulness Prediction -论文阅读
AI/机器学习常用公式的LaTex代码汇总
在写AI/机器学习相关的论文或者博客的时候经常需要用到LaTex的公式,然而作为资深“伸手党”的我在网上搜索的时候,居然没有找到相关现成资源@-@
blmoistawinde
2020/05/26
3.5K0
推荐系统(二十一)DIN系列——DIN、DIEN、DSIN深度兴趣网络总结
本文为阿里DIN系列方法的简单总结,这里将会总结DIN系列文章的创新之处,以及相应的方法。DIN提出的原因我们在base model里面介绍。
秋枫学习笔记
2022/09/19
3K0
Hands on Reinforcement Learning Advanced Chapter
在第 5 章讲解的 Q-learning 算法中,我们以矩阵的方式建立了一张存储每个状态下所有动作值的表格。表格中的每一个动作价值Q(s,a)Q(s,a)Q(s,a)表示在状态sss下选择动作aaa然后继续遵循某一策略预期能够得到的期望回报。然而,这种用表格存储动作价值的做法只在环境的状态和动作都是离散的,并且空间都比较小的情况下适用,我们之前进行代码实战的几个环境都是如此(如悬崖漫步)。当状态或者动作数量非常大的时候,这种做法就不适用了。例如,当状态是一张 RGB 图像时,假设图像大小是210×160×3210\times 160\times 3210×160×3,此时一共有256(210×160×3)256^{(210\times 160\times 3)}256(210×160×3)种状态,在计算机中存储这个数量级的QQQ值表格是不现实的。更甚者,当状态或者动作连续的时候,就有无限个状态动作对,我们更加无法使用这种表格形式来记录各个状态动作对的QQQ值。
一只野生彩色铅笔
2023/04/24
6850
Hands on Reinforcement Learning Advanced Chapter
Kdd'21「华为」利用图卷积进行特征交互和兴趣挖掘
基于特征交互和用户兴趣挖掘的方法已经得到了广泛的应用,比如比较有名的DIN,DIEN等。但是存在以下两个问题:
秋枫学习笔记
2022/09/19
5300
AAAI'21 「京东」会话推荐--基于图学习和注意力机制的多层次交互关系挖掘
基于会话的推荐常用于在线应用,从电子商务到广告业务等。然而现有的工作没有很好地设计方法来捕获复杂动态转移中的时序信息和多层次的相互依赖的关系结构。因此本文提出 Multi-level Transition Dynamics (MTD) 方法。能够以自动和分层的方式联合学习会话内和会话间项目转换动态。
秋枫学习笔记
2022/09/19
4790
推荐阅读
相关推荐
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档