Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >【论文阅读】Geography-Aware Sequential Location Recommendation

【论文阅读】Geography-Aware Sequential Location Recommendation

作者头像
EmoryHuang
发布于 2022-10-31 09:40:45
发布于 2022-10-31 09:40:45
7960
举报
文章被收录于专栏:EmoryHuang's BlogEmoryHuang's Blog

【论文阅读】Geography-Aware Sequential Location Recommendation

Metadata

authors:: Defu Lian, Yongji Wu, Yong Ge, Xing Xie, Enhong Chen

container:: Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining

year:: 2020

DOI:: 10.1145/3394486.3403252

rating:: ⭐⭐⭐

share:: true

comment:: 创新主要在于地理位置信息编码,将 GPS 信息转化为网格,再对 quadkey 进行编码,损失函数部分加上负样本概率对负样本进行加强。


前言

顺序位置推荐在许多应用中发挥着重要作用,如移动性预测、路线规划和基于位置的广告。它不但可以提高用户体验,增加用户粘性,还能为商家带来潜在的商业利益,已成为推荐系统中最重要的研究方向之一。

一篇 2020 年 KDD 的论文:Geography-Aware Sequential Location Recommendation

问题描述

next POI recommendation)给定大小为M的用户集合

和大小为N的 POI 集合

对于当前用户uuu,他的行动轨迹为

​,其中

,表示用户uuu在tit_iti​时刻到达位置为pip_ipi​的地点viv_ivi​,其中

一般的,我们的任务是预测用户的下一个访问地点,即next POI(Point-of-Interest) recommendation

OverView

现有问题

  1. 地理位置信息没有得到充分利用。POI 的位置信息对于描述 POI 之间的物理距离很重要,并且用户的移动历史通常表现出空间聚集现象。因此需要对位置的精确 GPS 位置进行编码;
  2. 稀疏性问题。用户通常很少访问不同的地点,负面偏好的位置会与潜在的正面位置混合在一起;通常使用BPR 损失二值交叉熵损失进行优化。但样本之间的信息量是不同的,因此在这些损失函数中平等对待它们不是最佳的方法。

这篇论文提出了一种基于自注意力网络的地理感知顺序推荐算法(GeoSAN),针对上面提到的两个问题,一方面,使用一个基于自注意力的地理位置编码器来编码 GPS;另一方面,提出了基于重要性抽样的加权二元交叉熵损失函数,使信息负样本具有更大的权重。

Geography-aware Self-Attention Network

模型总体架构如下图所示:

Embedding

首先是一些数据处理的东西。将输入序列转化为长度为mmm的定长序列,如果长度超过mmm,就将其切分为多个子序列;否则使用 0 进行 padding 填充。输入序列包括user,hour of week,POI 和 location

另外一方面,由于总体的结构类似 Transformer,不像 RNN 那样那能读取位置信息,因此额外加入了位置编码信息:

Self-Attention Encoder

self-Attention 的部分其实与 Transformer 是一致的,Attention 部分也没有加入一些额外的信息,这里就简单罗列一下。如果你不熟悉 Transformer,也可以看我的另一篇文章:【论文阅读】Attention Is All You Need

堆叠多个 Self-Attention 模块,每个模块由 Self-Attention 和 FFN 组成,并且使用残差和 layernorm 连接。

Self-Attention 部分:

Feed-forward Network(FFN)部分:

Target-aware Attention Decoder

许多现有的基于 self-attention 的方法都直接将经过 Self-Attention Encoder 的输出进行匹配,进而得到最终的结果。然而一些研究表明这可能并不合适,因此又加上了一个解码器,仍然是基于 self-attention 的处理。总而言之理解成 Transformer 就行了。

简单理解起来,

对应的就是公式里的

,其中

为候选 POI 以及其地理位置信息拼接得到。

Matching

在经过了解码器之后,计算每个候选位置的得分,计算内积:

Geography Encoder

上面的模型内容基本上都是按照 Transformer 的形式,总体而言变化不大。接下来就是这篇文章主要提出的 Geography Encoder,即对 GPS 信息进行编码。

之所以不将经纬度信息直接作为输入,主要考虑到下面两个问题:

  1. 经纬度表示的范围很大,但人们的活动空间往往只是很小一部分;
  2. 经纬度之间的强交互作用难以学习。

这篇论文的方法是将经纬度映射到网格中,利用网格的唯一 ID(quadkey)进行位置嵌入。

Map Gridding and GPS Mapping

瓷砖地图(Tile Map System),你可能没有听过这个概念,但你一定在地图上经常看见这些方块,它也广泛应用于 Google 地图和 Bing 地图:

具体来说,首先将经纬度坐标转化为笛卡尔坐标:

之后,再将笛卡尔坐标映射到栅格。

将经纬度映射到网格中,那么如何对网格进行编码呢?

现在,我们成功地将经纬度映射到网格中,那么如何对网格进行编码呢?论文中使用了四叉键(quadtree key,quadkey),可以简单理解为四叉树的概念。

直接看论文中的这幅图可能有点困难,举个例子:

图中红色点是一个 POI,为了标识该点,应用四叉树,在 level 1 中,可以将其标识为3;在 level 2 中,可以将其标识为32,后续继续细分同理。

通过这样的方式,解决了经纬度强关联的问题。另外一方面,网格中不同位置的 POI 可能共享相同的 quadkey,而没有 POI 的网格在嵌入时直接忽略,因此在一定程度上解决了稀疏性问题。

Encoding Quadkeys

论文中使用了 n-gram 算法对 quadkey 进行编码。举个例子,12022001通过 n-gram 算法编码为120→202→022→220→200→001120\rightarrow202\rightarrow022\rightarrow220\rightarrow200\rightarrow001120→202→022→220→200→001。通过这样的方式使词汇量扩大了 n 倍,也可以更好地表征相似度。之后再将经过 n-gram 处理的序列进行 embedding,就得到了最终的地理位置表示。

N-Gram 是一种基于统计语言模型的算法。它的基本思想是将文本里面的内容按照字节进行大小为 N 的滑动窗口操作,形成了长度是 N 的字节片段序列。 如果不进行 n-gram,而直接将 quadkey 进行 embedding 会出现两个问题:​

  1. 地图划分较细的时候,容易出现稀疏性;

  1. 无法表征相邻网格之间的相似性。

Loss Function with Importance Sampling

现有的许多方法使用的是二值交叉熵损失函数:

其中SSS是移动轨迹的训练集,oio_ioi​表示第iii步的目标 POI,LuL^uLu表示用户uuu访问的 POI 集合。但是二值交叉熵损失函数不能完全有效利用大量未访问的位置,负样本信息的缺失。

论文由此提出了通过负概率的形式对负样本进行加权:

其中

表示在给定用户轨迹时,

为负样本的概率:

其中TTT为超参数,控制概率分布与均匀分布的散度。

然而论文提出,该损失函数在概率上计算归一化的效率仍然较低。因此考虑使用 Importance Sampling 的方法近似计算期望:

其中

Geography-aware Negative Sampler

根据地理位置,基于 K 近邻方法,先召回位置最近的 K 个样本,从最近的这些样本中选择负样本。

实验

数据集

  • Gowalla
  • Brightkite
  • Foursquare

Comparison with baseline

Ablation Study

论文中进行了多项消融实验:

  1. US(Uniform Sampler)
  2. BCE (Binary Cross-Entropy) Loss
  3. Remove GE (Geography Encoder)
  4. Remove PE (Positional Embedding)
  5. Add UE (User Embedding)
  6. Add TE (Time Embedding)
  7. Add TAAD (Target-Aware Attention Decoder)

通过上面消融实验,论文发现:

  1. 使用 KNN 的负采样显著提高了性能;
  2. 新的损失函数的有效性;
  3. 地理位置信息编码的有效性;
  4. 添加 user embedding 和 time embedding 并不会提高性能;
  5. 使用 target-aware attention decoder 在某些情况下是有帮助的。

敏感性分析

对不同损失函数的研究

针对损失函数,论文又进行排列组合,研究不同情况下的性能表现:

对 N-gram 的研究

总结

总体而言,感觉这篇论文主体的模型框架还是 Transformer,最大的创新主要在于地理位置信息编码,将 GPS 信息转化为网格,再对 quadkey 进行编码,个人感觉还是有点东西的。然后另外一块的话就是损失函数,虽然论文给出了为什么加上负样本概率的原因,但我其实没有非常理解,可能以后需要多看看损失函数这块的东西。

参考资料

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-07-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
authors:: Zhilun Zhou, Yu Liu, Jingtao Ding, Depeng Jin, Yong Li container:: Proceedings of the ACM web conference 2023 year:: 2023 DOI:: 10.1145/3543507.3583239 rating:: ⭐⭐⭐⭐ share:: true comment:: 基于LBSN构建知识图谱,分别学习全局知识和领域分层知识
EmoryHuang
2023/05/18
4450
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
【论文】Awesome Relation Classification Paper(关系分类)(PART I)
之前做过的百度今年的语言与智能技术竞赛,其中有一个子赛道就是关于信息抽取。信息抽取(Information Extraction)是指从非结构化的自然语言文本中抽取出实体、属性、关系等三元组信息,是构建知识图谱的基础技术之一。IE的子任务大概有以下几种:
AINLP
2019/08/12
8900
【论文】Awesome Relation Classification Paper(关系分类)(PART I)
【论文阅读】Modeling Spatio-temporal Neighbourhood for Personalized Point-of-interest Recommendation
authors:: Xiaolin Wang, Guohao Sun, Xiu Fang, Jian Yang, Shoujin Wang container:: Proceedings of the Thirty-First International Joint Conference on Artificial Intelligence year:: 2022 DOI:: 10.24963/ijcai.2022/490 rating:: ⭐⭐⭐ share:: false comment:: 强调用户偏好,通过构建TKG图,以时间片的形式聚合K个用户/场所的邻居信息并打分,以此作为抽象表示。亮点主要在于聚合用户/场所邻居的方法。
EmoryHuang
2022/10/27
5700
【论文阅读】Modeling Spatio-temporal Neighbourhood for Personalized Point-of-interest Recommendation
【论文阅读】STAN:Spatio-Temporal Attention Network for Next Location Recommendation
authors:: Yingtao Luo, Qiang Liu, Zhaocheng Liu container:: Proceedings of the Web Conference 2021 year:: 2021 DOI:: 10.1145/3442381.3449998 rating:: ⭐⭐⭐ share:: false comment:: 通过双层Attention的方式,对Attention公式进行修改,聚合时间以及距离信息。通过线性插值代替 GPS 网格进行空间/时间离散化。
EmoryHuang
2022/10/31
1K0
【论文阅读】STAN:Spatio-Temporal Attention Network for Next Location Recommendation
【论文阅读】Next Point-of-Interest Recommendation with Inferring Multi-step Future Preferences
authors:: Lu Zhang, Zhu Sun, Ziqing Wu, Jie Zhang, Yew Soon Ong, Xinghua Qu container:: Proceedings of the Thirty-First International Joint Conference on Artificial Intelligence year:: 2022 DOI:: 10.24963/ijcai.2022/521 rating:: ⭐⭐⭐ share:: false comment:: 学习目标 POI 的左右上下文信息,将用户轨迹分为历史轨迹和当前轨迹,历史轨迹使用 Transformer 用以表示未来偏好,当前轨迹使用 LSTM 学习并进行多步预测,最后整合结果。
EmoryHuang
2022/10/27
9090
【论文阅读】Next Point-of-Interest Recommendation with Inferring Multi-step Future Preferences
【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer
authors:: Yanjun Qin, Yuchen Fang, Haiyong Luo, Fang Zhao, Chenxing Wang container:: Proceedings of the 45th international ACM SIGIR conference on research and development in information retrieval year:: 2021 DOI:: 10.1145/3477495.3531905 rating:: ⭐⭐⭐⭐ share:: false comment:: 框架为 Transformer,计算序列自相关性,并考虑访问子序列,同时预测 POI 及其类别
EmoryHuang
2022/10/28
6900
【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced
 multi-modal transformer
【Pre-Training】关于 Transformer 那些的你不知道的事
本博客 主要 是本人在学习 Transformer 时的「所遇、所思、所解」,通过以 「十六连弹」 的方式帮助大家更好的理解 该问题。
阿泽 Crz
2020/07/29
8920
【Pre-Training】关于 Transformer 那些的你不知道的事
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
authors:: Song Yang, Jiamou Liu, Kaiqi Zhao container:: Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval year:: 2022 DOI:: 10.1145/3477495.3531983 rating:: ⭐⭐️⭐️ share:: false comment:: 论文的主干网络仍然是 Transformer,通过构建 POI 之间的转移权重图(trajectory flow map)并通过 GCN 进行 POI Embedding;最后,又同时预测 POI、时间、类别,加强了损失函数。
EmoryHuang
2022/10/31
7870
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
【论文阅读】Empowering next POI recommendation with multi-relational modeling
authors:: Zheng Huang, Jing Ma, Yushun Dong, Natasha Zhang Foutz, Jundong Li container:: Proceedings of the 45th international ACM SIGIR conference on research and development in information retrieval year:: 2021 DOI:: 10.1145/3477495.3531801 rating:: ⭐⭐ share:: false comment:: 强调用户之间的社交关系建模,使用耦合的 RNN 相互更新用户和 POI 表示
EmoryHuang
2022/10/27
5760
【论文阅读】Empowering next POI recommendation with multi-relational modeling
【论文阅读】Learning Graph-based Disentangled Representations for Next POI Recommendation
authors:: Zhaobo Wang, Yanmin Zhu, Haobing Liu, Chunyang Wang container:: Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval year:: 2022 DOI:: 10.1145/3477495.3532012 rating:: ⭐⭐⭐⭐ share:: false comment:: 将 POI 分解为多个维度进行表示,利用 GCN 进行特征提取,采用多头注意力对各个分解维度进行处理
EmoryHuang
2022/10/27
7520
【论文阅读】Learning Graph-based Disentangled Representations for Next POI Recommendation
从 one-hot 到 BERT,带你一步步理解 BERT
NLP:自然语言处理(NLP)是信息时代最重要的技术之一。理解复杂的语言也是人工智能的重要组成部分。而自google在2018年10月底公布BERT在11项nlp任务中的卓越表后,BERT(Bidirectional Encoder Representation from Transformers)就成为NLP一枝独秀,本文将为大家层层剖析bert。
数说君
2019/07/08
1.8K0
【论文阅读】Attention is all you need
authors:: Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, Illia Polosukhin container:: Advances in neural information processing systems year:: 2017 DOI:: rating:: ⭐⭐⭐⭐⭐ share:: false comment:: 经典不解释
EmoryHuang
2022/10/31
5110
【论文阅读】Attention is all you need
【论文阅读】DisenPOI Disentangling sequential and geographical influence for point-of-interest recommendat
2023 年,WSDM 的一篇论文:DisenPOI: Disentangling sequential and geographical influence for point-of-interest recommendation
EmoryHuang
2023/03/13
5850
【论文阅读】DisenPOI Disentangling sequential and geographical influence for point-of-interest recommendat
【论文阅读】Hierarchical multi-task graph recurrent network for next POI recommendation
authors:: Nicholas Lim, Bryan Hooi, See-Kiong Ng, Yong Liang Goh, Renrong Weng, Rui Tan container:: Proceedings of the 45th international ACM SIGIR conference on research and development in information retrieval year:: 2021 DOI:: 10.1145/3477495.3531989 rating:: ⭐⭐⭐⭐ share:: false comment:: 框架为 LSTM,在隐藏层加入全局时空信息,以多任务预测的形式同时预测 POI 以及 POI 所在区域,并通过区域对 POI 预测进行指导,建立层次结构预测 POI。
EmoryHuang
2022/10/27
1.1K0
【论文阅读】Hierarchical multi-task graph recurrent network for next POI recommendation
机器学习|7种经典预训练模型原理解析
目前无论在CV领域还是NLP领域,预训练都是一个很普遍和普适的方法。我们都知道深度学习的模型越庞大,模型参数越多,为了避免过拟合就需要相应大规模的数据集,但对于很多任务而言,样本标注的成本昂贵。相反,大规模无标签数据库相对容易建立,为了充分利用这些无标记数据,我们可以先使用它们在其他一些任务上学习一个好的特征表示,再用于训练目标任务。
智能生信
2021/02/04
5.5K0
NLP中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert
一、文本表示和各词向量间的对比 1、文本表示哪些方法? 2、怎么从语言模型理解词向量?怎么理解分布式假设? 3、传统的词向量有什么问题?怎么解决?各种词向量的特点是什么? 4、word2vec和NNLM对比有什么区别?(word2vec vs NNLM) 5、word2vec和fastText对比有什么区别?(word2vec vs fastText) 6、glove和word2vec、 LSA对比有什么区别?(word2vec vs glove vs LSA) 7、 elmo、GPT、bert三者之间有什么区别?(elmo vs GPT vs bert)
zenRRan
2019/06/14
3.7K0
NLP中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert
【论文解读】EMNLP2019-多粒度自注意力机制
Multi-Granularity Self-Attention for Neural Machine Translation[1]
zenRRan
2020/03/05
9470
【论文解读】EMNLP2019-多粒度自注意力机制
WWW 2021 | STAN: 基于时空注意力的地点推荐模型
本文对中科院自动化所和华盛顿大学的研究人员合作发表在WWW 2021的论文《STAN: Spatio-Temporal Attention Network for Next Location Recommendation》进行解读。
AI科技评论
2021/03/09
2.9K0
WWW 2021 | STAN: 基于时空注意力的地点推荐模型
【论文阅读】ST-PIL: Spatial-Temporal Periodic Interest Learning for Next Point-of-Interest Recommendation
authors:: Qiang Cui, Chenrui Zhang, Yafeng Zhang, Jinpeng Wang, Mingchen Cai container:: Proceedings of the 30th ACM International Conference on Information & Knowledge Management year:: 2021 DOI:: 10.1145/3459637.3482189 rating:: ⭐⭐⭐ share:: false comment:: 模型主体为 LSTM,分别学习长期和短期的用户行为模式,并通过 Attention 融合
EmoryHuang
2022/10/28
5080
【论文阅读】ST-PIL: Spatial-Temporal Periodic Interest Learning for Next Point-of-Interest Recommendation
【论文阅读】Graph-Flashback Network for Next Location Recommendation
authors:: Xuan Rao, Lisi Chen, Yong Liu, Shuo Shang, Bin Yao, Peng Han container:: Proceedings of the 28th ACM SIGKDD Conference on Knowledge Discovery and Data Mining year:: 2022 DOI:: 10.1145/3534678.3539383 rating:: ⭐⭐⭐⭐ share:: false comment:: 构建 STKG 并设计相似度函数生成 POI 转移矩阵,利用 POI 转移矩阵对 POI 进行加强并获取用户偏好信息,模型主体框架为 RNN,同时在隐藏层更新过程中手动加入额外信息。另外几个相似度函数也是亮点。
EmoryHuang
2022/10/27
1.6K0
【论文阅读】Graph-Flashback Network for Next Location Recommendation
推荐阅读
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
4450
【论文】Awesome Relation Classification Paper(关系分类)(PART I)
8900
【论文阅读】Modeling Spatio-temporal Neighbourhood for Personalized Point-of-interest Recommendation
5700
【论文阅读】STAN:Spatio-Temporal Attention Network for Next Location Recommendation
1K0
【论文阅读】Next Point-of-Interest Recommendation with Inferring Multi-step Future Preferences
9090
【论文阅读】Next point-of-interest recommendation with auto-correlation enhanced multi-modal transformer
6900
【Pre-Training】关于 Transformer 那些的你不知道的事
8920
【论文阅读】GETNext:Trajectory Flow Map Enhanced Transformer for Next POI Recommendation
7870
【论文阅读】Empowering next POI recommendation with multi-relational modeling
5760
【论文阅读】Learning Graph-based Disentangled Representations for Next POI Recommendation
7520
从 one-hot 到 BERT,带你一步步理解 BERT
1.8K0
【论文阅读】Attention is all you need
5110
【论文阅读】DisenPOI Disentangling sequential and geographical influence for point-of-interest recommendat
5850
【论文阅读】Hierarchical multi-task graph recurrent network for next POI recommendation
1.1K0
机器学习|7种经典预训练模型原理解析
5.5K0
NLP中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert
3.7K0
【论文解读】EMNLP2019-多粒度自注意力机制
9470
WWW 2021 | STAN: 基于时空注意力的地点推荐模型
2.9K0
【论文阅读】ST-PIL: Spatial-Temporal Periodic Interest Learning for Next Point-of-Interest Recommendation
5080
【论文阅读】Graph-Flashback Network for Next Location Recommendation
1.6K0
相关推荐
【论文阅读】Hierarchical knowledge graph learning enabled socioeconomic indicator prediction in location-b
更多 >
领券
社区富文本编辑器全新改版!诚邀体验~
全新交互,全新视觉,新增快捷键、悬浮工具栏、高亮块等功能并同时优化现有功能,全面提升创作效率和体验
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文