Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >【论文阅读】DynaPosGNN:Dynamic-Positional GNN for Next POI Recommendation

【论文阅读】DynaPosGNN:Dynamic-Positional GNN for Next POI Recommendation

作者头像
EmoryHuang
发布于 2022-10-31 09:36:07
发布于 2022-10-31 09:36:07
5790
举报
文章被收录于专栏:EmoryHuang's BlogEmoryHuang's Blog

【论文阅读】DynaPosGNN: Dynamic-Positional GNN for Next POI Recommendation

Metadata

authors:: Junbeom Kim, Sihyun Jeong, Goeon Park, Kihoon Cha, Ilhyun Suh, Byungkook Oh container:: 2021 International Conference on Data Mining Workshops (ICDMW) year:: 2021 DOI:: 10.1109/ICDMW53433.2021.00012 rating:: ⭐⭐ share:: true comment:: 模型完全采用GNN进行Embedding,同时待预测POI的访问时间也作为参数进行输入,与传统的POI预测问题有些出入。


前言

随着基于位置的社交网络(Location-Based Social Network)的快速发展, 海量的签到数据被用于挖掘用户的行为模式以实现兴趣点(Point-of-Interest) 推荐。 兴趣点推荐不但可以提高用户体验,增加用户粘性,还能为商家带来潜在的商业利益,已成为推荐系统中最重要的研究方向之一。

2021 年发表在 ICDM 上的一篇论文:DynaPosGNN: Dynamic-Positional GNN for Next POI Recommendation

问题描述

next POI recommendation)给定大小为MMM的用户集合U={u1,u2,⋯ ,uM}U=\{u_1, u_2, \cdots,u_M\}U={u1​,u2​,⋯,uM​}和大小为NNN的 POI 集合V={v1,v2,⋯ ,vN}V=\{v_1, v_2, \cdots, v_N \}V={v1​,v2​,⋯,vN​}。

对于每个用户umu_mum​都有一个 POI 行动轨迹序列sum={vm1,vm2,⋯ ,vmi}s_{u_m} = \{v_{m_1}, v_{m_2}, \cdots, v_{m_i} \}sum​​={vm1​​,vm2​​,⋯,vmi​​},对应的访问时间序列为{t1,t2,⋯ ,ti}\{t_1, t_2, \cdots, t_i \}{t1​,t2​,⋯,ti​}。

当前目标用户uTu_TuT​,他的行动轨迹为su={v1,v2,⋯ ,vc}s_u = \{v_1, v_2, \cdots, v_c \}su​={v1​,v2​,⋯,vc​},对应的访问时间为{t1,t2,⋯ ,tc}\{t_1, t_2, \cdots, t_c \}{t1​,t2​,⋯,tc​}。

一般的,我们的任务是预测用户的下一个访问地点,即_next POI(Point-of-Interest) recommendation_。

对于当前目标用户uTu_TuT​,可知用户uTu_TuT​在tct_ctc​时刻位于地点vcv_cvc​,我们的任务是预测用户在tf(tf>tc)t_f(t_f > t_c)tf​(tf​>tc​)时刻的下一个访问地点vfv_fvf​。

预备知识

动态图

一句话概括:节点特征和边特征随着时间而变化的图

一个动态网络可以表示为图G=(V,E)G=(V,E)G=(V,E),其中集合V={(v,ts,te)}V=\{(v,t_s,t_e)\}V={(v,ts​,te​)},集合E={(u,v,ts,te)}E=\{(u,v,t_s,t_e)\}E={(u,v,ts​,te​)},其中u,v∈Vu,v\in Vu,v∈V为图中的节点,ts,tet_s,t_ets​,te​分别表示边出现和消失的时间。

注:上面这个定义适用于无向图,并且图中的边没有权重。对于其他网络,可以对该定义进行简单地拓展。

GNN

在现实世界中更多的数据表示并不是序列或者平面这种简单的排列,而是表现为更为复杂的图结构,如社交网络、人际关系、分子结构等。

Graph Neural Network(GNN)是一种基于图结构的神经网络。

其实传统的神经网络也是可以处理图数据,只需要进行前期合理的 Embedding 即可。GNN 其实是一种特征提取算法,也可以理解为 Embedding 算法,它通过在整张图上传递、聚合信息,从而进行特征提取。

更多关于 GNN 的知识可以看我的另一篇文章:简单理解图神经网络 GNN

Overview

模型的主要框架是 GNN,并且构建了两张动态图_User-POI Graph_和 POI-POI Graph

Contribute:

  1. 考虑用户在特定场合,特定时间的下一个 POI 访问,同时将访问下一个 POI 的时间作为考虑。
  2. 使用多重图表示用户访问 POI 的历史记录,将访问时间作为边的权值,构建了 User-POI graph 和 POI-POI graph 用于特征提取。

DynaPosGNN

Dynamic Graphs

为了更好地利用用户 POI 的访问信息,论文根据 POI 访问序列构建了两张图: User-POI GraphPOI-POI Graph

  • User-POI GraphUPG):无向动态多重图。包含所有用户节点和 POI 节点,如果用户uuu在时间ttt访问vvv,那么就会在这两个节点之间添加权值为ttt的边。UPGTUPG_TUPGT​表示在时间TTT之前的 UPG 子图。
  • POI-POI Graph(PPG):有向动态多重图。包含所有 POI 节点,如果用户uuu之前位于vav_ava​,在tbt_btb​时刻访问vbv_bvb​,那么就会在这两个节点之间添加权值为tbt_btb​的边。PPGTPPG_TPPGT​表示在时间TTT之前的 PPG 子图。

Factors

在_User-POI Graph_和 _POI-POI Graph_中,记录了所有的信息,论文中提出了 4 个因子,来更好地提取历史记录的特征。

  1. Time interval between current and prediction time 当前时间和预测时间的时间差。 Δtcf=tf−tc\Delta t_{cf} = t_f - t_cΔtcf​=tf​−tc​ 由于Δtcf\Delta t_{cf}Δtcf​可能非常大,因此处理为1/exp⁡(Δtcf)1/\exp(\Delta t_{cf})1/exp(Δtcf​)。
  2. Time interval between current and past record 当前时间和过去记录的时间差。 Δtcpk=tc−tpk\Delta t_{cp_k} = t_c - t_{p_k}Δtcpk​​=tc​−tpk​​ 由于Δtcpk\Delta t_{cp_k}Δtcpk​​可能非常大,因此处理为1/exp⁡(Δtcpk)1/\exp(\Delta t_{cp_k})1/exp(Δtcpk​​)。
  3. Hour time difference between prediction time and past record 小时差。由于用户在一天内的活动可能是非常规律的,很可能在相似的时间访问相同的地点。对于两个不同的 Hour time,hf,hpk∈[0,24)h_f,h_{p_k}\in [0,24)hf​,hpk​​∈[0,24),定义: dh(hf,hpk)=min⁡(∣hf−hpk−24∣,∣hf−hpk∣,∣hf−hpk+24∣)d_h(h_f, h_{p_k}) = \min(\vert h_f - h_{p_k} - 24 \vert, \vert h_f - h_{p_k} \vert, \vert h_f - h_{p_k} + 24 \vert)dh​(hf​,hpk​​)=min(∣hf​−hpk​​−24∣,∣hf​−hpk​​∣,∣hf​−hpk​​+24∣)
  4. Geographical distance 地理距离。 dhav(vc,vpk)=Haversine(vc,vpk)d_{hav}(v_c, v_{p_k}) = Haversine(v_c, v_{p_k})dhav​(vc​,vpk​​)=Haversine(vc​,vpk​​) 由于dhavd_{hav}dhav​可能非常大,因此处理为1/exp⁡(dhav)1/\exp(d_{hav})1/exp(dhav​)。 半正矢公式(Haversine)是一种根据两点的_经度_和_纬度_来确定_大圆上两点之间距离_的计算方法。

Architecture

DynaPosGNN Layer

整体模型架构并不复杂,这里简单进行说明。就像前面说的,你可以把 DynaPosGNN Layer 理解为一个 Embedding 的过程。输入为{uT,vc,tc,tf}\{u_T, v_c, t_c, t_f\}{uT​,vc​,tc​,tf​},UPG/PPG,POI Embedding。

首先是利用之前提到的 4 个因子计算当前节点与邻居节点的关系:

wk=f(Δtcf,Δtck,dh(tf−tk),dhav(vc,vk))w_k = f(\Delta t_{cf}, \Delta t_{ck}, d_h(t_f-t_k), d_{hav}(v_c,v_k))wk​=f(Δtcf​,Δtck​,dh​(tf​−tk​),dhav​(vc​,vk​))

使用多层感知机 Multi-Layered Perceptron(MLP)进行训练:

Embedding(vc,tc,tf)=MLP(∑i∈NcαiEmbi)\text{Embedding}(v_c,t_c,t_f)=\text{MLP}(\sum_{i\in \mathcal{N_c}} \alpha_i \text{Emb}_i)Embedding(vc​,tc​,tf​)=MLP(∑i∈Nc​​αi​Embi​)

其中αi\alpha_iαi​为:

αk=Softmax(wk)=exp⁡(wk)∑i∈Ncexp⁡(wi)\alpha_k=\text{Softmax}(w_k) = \frac{\exp(w_k)}{\sum_{i\in \mathcal{N_c}} \exp(w_i)}αk​=Softmax(wk​)=∑i∈Nc​​exp(wi​)exp(wk​)​

GNN Aggregate

在 GNN 聚合时,由于 User-POI Graph 和 POI-POI Graph 存在差异,因此略有不同。具体来说,User-POI Graph 使用全部的边;而 POI-POI Graph 使用出边。

Output

经过 DynaPosGNN Layer 之后,我们得到了hupg\mathbf{h_{upg}}hupg​和hppg\mathbf{h_{ppg}}hppg​,即 UPG 和 PPG 的向量表示。为了加强时间学习,论文又添加了时间信息,得到最终的 POI 预测结果:

p=Softmax(Ws(wupghupg+wppghppg))\mathbf{p}=\text{Softmax}\left(\mathbf{W_s}(w_{upg}\mathbf{h_{upg}} + w_{ppg}\mathbf{h_{ppg}})\right)p=Softmax(Ws​(wupg​hupg​+wppg​hppg​))

EXPERIMENT

数据集

  • Foursquare:New York City (FS-NYC), Tokyo (FS-TKY)
  • Gowalla: San Francisco (GW-SF), Austin (GW-AUS)

评价指标

HR@K: 目标 POI 是否在前 k 个推荐列表中

NDCG@K: 根据目标 POI 在前 k 个推荐中的排名来衡量推荐的质量。

对比实验

消融实验

总结

总体看下来,一些细节的地方没怎么讲,感觉亮点还是在vc,tc,tfv_c,t_c,t_fvc​,tc​,tf​上。我们一般总是将 POI 访问序列看做一个整体,直观的根据序列预测下一个访问地点。这篇论文感觉就是进一步强调了用户的当前访问点以及当前访问时间vc,tcv_c,t_cvc​,tc​;同时也将待访问时间tft_ftf​纳入考虑,其实也就是不同时间范围的预测。

参考文献

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-06-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
authors:: Song Yang, Jiamou Liu, Kaiqi Zhao container:: Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval year:: 2022 DOI:: 10.1145/3477495.3531983 rating:: ⭐⭐️⭐️ share:: false comment:: 论文的主干网络仍然是 Transformer,通过构建 POI 之间的转移权重图(trajectory flow map)并通过 GCN 进行 POI Embedding;最后,又同时预测 POI、时间、类别,加强了损失函数。
EmoryHuang
2022/10/31
7870
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
【论文阅读】Curriculum Meta-Learning for Next POI Recommendation
authors:: Yudong Chen, Xin Wang, Miao Fan, Jizhou Huang, Shengwen Yang, Wenwu Zhu container:: Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining year:: 2021 DOI:: 10.1145/3447548.3467132 rating:: ⭐⭐⭐ share:: false comment:: 着眼于 POI 推荐的城市转移问题,使用元学习概念,并引入了困难度 Hardness 概念
EmoryHuang
2022/09/29
2750
【论文阅读】Curriculum Meta-Learning for Next POI Recommendation
【论文阅读】DisenPOI Disentangling sequential and geographical influence for point-of-interest recommendat
2023 年,WSDM 的一篇论文:DisenPOI: Disentangling sequential and geographical influence for point-of-interest recommendation
EmoryHuang
2023/03/13
5840
【论文阅读】DisenPOI Disentangling sequential and geographical influence for point-of-interest recommendat
【论文阅读】Temporal knowledge graph reasoning based on evolutional representation learning
authors:: Zixuan Li, Xiaolong Jin, Wei Li, Saiping Guan, Jiafeng Guo, Huawei Shen, Yuanzhuo Wang, Xueqi Cheng container:: Proceedings of the 44th international ACM SIGIR conference on research and development in information retrieval year:: 2020 DOI:: 10.1145/3404835.3462963 rating:: ⭐⭐⭐ share:: true comment:: 时间知识图谱TKG推理,时间片上采用GCN,顺序关系上采用GRU,并融合静态信息,同时预测实体和关系。
EmoryHuang
2023/04/06
8080
【论文阅读】Temporal knowledge graph reasoning based on evolutional representation learning
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
authors:: Zhilun Zhou, Yu Liu, Jingtao Ding, Depeng Jin, Yong Li container:: Proceedings of the ACM web conference 2023 year:: 2023 DOI:: 10.1145/3543507.3583239 rating:: ⭐⭐⭐⭐ share:: true comment:: 基于LBSN构建知识图谱,分别学习全局知识和领域分层知识
EmoryHuang
2023/05/18
4420
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
XLNet详解
2018 年,谷歌发布了基于双向 Transformer 的大规模预训练语言模型BERT,刷新了 11 项 NLP 任务的最优性能记录,为 NLP 领域带来了极大的惊喜。很快,BERT 就在圈内普及开来,也陆续出现了很多与它相关的新工作
mathor
2020/08/11
1.2K0
XLNet详解
【论文阅读】HIP network:Historical information passing network for extrapolation reasoning on temporal kno
authors:: Yongquan He, Peng Zhang, Luchen Liu, Qi Liang, Wenyuan Zhang, Chuang Zhang container:: Proceedings of the thirtieth international joint conference on artificial intelligence, IJCAI-21 year:: 2021 DOI:: 10.24963/ijcai.2021/264 rating:: ⭐ share:: false comment:: 时间知识图谱TKG,时间片上采用CompGCN,顺序关系上同时考虑时间片的顺序关系和实体对的顺序关系,并以三个得分函数为辅助进行推理。
EmoryHuang
2023/04/22
5970
【论文阅读】HIP network:Historical information passing network for extrapolation reasoning on temporal kno
WSDM'22「微软」会话推荐:多粒度连续用户意图学习
本文针对会话推荐方向,相较于关注序列中的单个商品,本文关注如何利用GNN从连续片段中捕获用户偏好。通过多粒度连续用户意图单元捕获用户兴趣,作者提出了多粒度意图异构会话图(MIHSG),它捕获了不同粒度意图单元之间的交互并减轻了长依赖的负担。此外,作者提出了意图融合排名(IFR)模块来组合来自各种粒度用户意图的推荐结果。
秋枫学习笔记
2022/09/19
4280
【论文阅读】Modeling Spatio-temporal Neighbourhood for Personalized Point-of-interest Recommendation
authors:: Xiaolin Wang, Guohao Sun, Xiu Fang, Jian Yang, Shoujin Wang container:: Proceedings of the Thirty-First International Joint Conference on Artificial Intelligence year:: 2022 DOI:: 10.24963/ijcai.2022/490 rating:: ⭐⭐⭐ share:: false comment:: 强调用户偏好,通过构建TKG图,以时间片的形式聚合K个用户/场所的邻居信息并打分,以此作为抽象表示。亮点主要在于聚合用户/场所邻居的方法。
EmoryHuang
2022/10/27
5700
【论文阅读】Modeling Spatio-temporal Neighbourhood for Personalized Point-of-interest Recommendation
「微软」局部图协同过滤缓解数据稀疏问题
本文是针对图神经网络在推荐系统中的应用提出的相关方法LGCF,对于用户-商品交互数据稀疏的情况下,无法得到较好的embedding来计算偏好。LGCF不需要为每个用户和商品学习embedding,旨在将有用的 CF 信息编码到局部图中,并基于该图进行推荐。
秋枫学习笔记
2022/09/19
6920
图神经网络综述:从Deepwalk到GraphSAGE,GCN,GAT
本文是笔者初学Graph neural network时写下的综述,从graph embedding开始讲起,回顾了GE和GNN的历史和经典论文,并利用热传播模型分析了GNN的数学渊源。
算法进阶
2023/11/05
2K0
图神经网络综述:从Deepwalk到GraphSAGE,GCN,GAT
Neural Machine Translation 论文阅读
这是2015年发表在ICLR上的论文,也是NLP中Attention机制的开山之作,Attention机制是为了解决一般的RNN Encoder-Decoder对长句子表现不佳的问题而设计的。从论文题目中我们可以看到,作者希望通过Attention机制将输入句子input和输出句子output进行"对齐"(SMT中也有所谓的词对齐模型)。但是,由于不同语言的句法语法结构千差万别,想将源句子与翻译句子严格的对齐是很困难的,所以这里的对齐实际上是软对齐(soft-alignment),也就是不必将源句子显式分割,因而又被形象地称为注意力机制(Attention Mechanism)
mathor
2020/03/17
7790
Transformer的基本原理
Seq2Seq[1]框架最初是在神经机器翻译(Neural Machine Translation,NMT)领域中提出,用于将一种语言(sequence)翻译成另一种语言(sequence)。其结构如下图所示:
felixzhao
2022/09/26
1.2K0
torch.nn、(二)
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
狼啸风云
2019/09/25
1.4K0
论文阅读01——《图卷积神经网络综述》
由于博主已经本硕博连读,九月份即将开始研究生生涯,遂开启论文阅读这一系列博文,主要介绍一些文章的主要思想和创新点,可能会详细介绍一下模型,如果喜欢的话多多关注,另外其他系列也会不定时更新,记得来看~
Marigold
2022/06/17
1.5K0
论文阅读01——《图卷积神经网络综述》
AI Infra论文阅读之将流水线并行气泡几乎降到零(附基于Meagtron-LM的ZB-H1开源代码实现解读)
这篇论文对应的链接为:https://openreview.net/pdf?id=tuzTN0eIO5 ,最近被ICLR 2024接收,但不少AI Infra的同行已经发现了这个工作的价值,并且已经开源在 https://github.com/sail-sg/zero-bubble-pipeline-parallelism ,在一些AI Infra相关的地方也存在一些讨论和介绍。比如 https://www.zhihu.com/question/637480969/answer/3354692418
BBuf
2024/02/22
2.3K0
AI Infra论文阅读之将流水线并行气泡几乎降到零(附基于Meagtron-LM的ZB-H1开源代码实现解读)
【论文笔记】A Graph-based and Copy-augmented Multi-domain Dialogue State Tracking
​ 大多数现有的方法都在单个领域上独立训练 DST,而忽略了跨领域之间的信息的有效共享。
yhlin
2023/03/23
8400
【论文笔记】A Graph-based and Copy-augmented Multi-domain Dialogue State Tracking
奥创纪元:当推荐系统遇到大模型LLM
大模型LLM在越来越多的领域开始崭露头角,比如我们在今年上半年曾在某电商平台落地过较为直观简单的LLMx搜索项目(我们称之为LLM应用的第一阶段),同时拿到线上收益,LLM的潜力可见一斑。
NewBeeNLP
2023/12/04
1.9K0
奥创纪元:当推荐系统遇到大模型LLM
​万字综述 | 图神经网络在时间序列中的应用:预测、分类、填补和异常检测
时间序列是记录动态系统测量值的主要数据类型,由物理传感器和在线过程(虚拟传感器)大量生成。因此,时间序列分析对于揭示可用数据中隐含的信息财富至关重要。随着图神经网络(GNNs)的最新进展,基于GNN的时间序列分析方法大幅增加。这些方法可以明确地建模时序和变量间的关系,而传统的和其他基于深度神经网络的方法则难以做到。在这项调查中,我们对图神经网络在时间序列分析中的应用进行了全面回顾(GNN4TS),涵盖了四个基本维度:预测、分类、异常检测和填补。我们的目标是指导设计师和从业者了解、构建应用程序,并推进GNN4TS的研究。首先,我们提供了一个全面的面向任务的GNN4TS分类法。然后,我们介绍和讨论代表性研究成果,并介绍GNN4TS的主流应用。最后,我们全面讨论了潜在的未来研究方向。这项调查首次汇集了大量关于基于GNN的时间序列研究的知识,突出了图神经网络在时间序列分析中的基础、实际应用和机遇。
Houye
2024/04/11
6.2K0
​万字综述 | 图神经网络在时间序列中的应用:预测、分类、填补和异常检测
机器学习笔记-coursera
\(A\)是矩阵 \(x_i\) 是单位特征向量 \(\lambda_i\)是特征值 \(\Lambda\) 是矩阵特征值
列夫托尔斯昊
2020/08/25
8790
机器学习笔记-coursera
推荐阅读
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
7870
【论文阅读】Curriculum Meta-Learning for Next POI Recommendation
2750
【论文阅读】DisenPOI Disentangling sequential and geographical influence for point-of-interest recommendat
5840
【论文阅读】Temporal knowledge graph reasoning based on evolutional representation learning
8080
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
4420
XLNet详解
1.2K0
【论文阅读】HIP network:Historical information passing network for extrapolation reasoning on temporal kno
5970
WSDM'22「微软」会话推荐:多粒度连续用户意图学习
4280
【论文阅读】Modeling Spatio-temporal Neighbourhood for Personalized Point-of-interest Recommendation
5700
「微软」局部图协同过滤缓解数据稀疏问题
6920
图神经网络综述:从Deepwalk到GraphSAGE,GCN,GAT
2K0
Neural Machine Translation 论文阅读
7790
Transformer的基本原理
1.2K0
torch.nn、(二)
1.4K0
论文阅读01——《图卷积神经网络综述》
1.5K0
AI Infra论文阅读之将流水线并行气泡几乎降到零(附基于Meagtron-LM的ZB-H1开源代码实现解读)
2.3K0
【论文笔记】A Graph-based and Copy-augmented Multi-domain Dialogue State Tracking
8400
奥创纪元:当推荐系统遇到大模型LLM
1.9K0
​万字综述 | 图神经网络在时间序列中的应用:预测、分类、填补和异常检测
6.2K0
机器学习笔记-coursera
8790
相关推荐
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文