前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >KDD 2021 | 时空动态图网络用于交通流的预测

KDD 2021 | 时空动态图网络用于交通流的预测

作者头像
VachelHu
发布2021-08-20 10:13:32
1.7K0
发布2021-08-20 10:13:32
举报
文章被收录于专栏:时序人时序人

ACM SIGKDD(Conference on Knowledge Discovery and Data Mining, KDD)是世界数据挖掘领域的最高级别的国际会议,由 ACM(Association of Computing Machinery,计算机学会)的数据挖掘及知识发现专委会(SIGKDD)负责协调筹办,被中国计算机协会荐为A类会议。

自 1995 年以来,KDD 已经以大会的形式连续举办了二十余届全球峰会,作为数据挖掘领域最顶级的学术会议,KDD 大会以论文接收严格闻名,每年的接收率不超过 20%,因此颇受行业关注。

今年KDD发布论文接收结果:本届会议共吸引了 1541 篇论文投递,其中有 238 篇论文被接收,接收率为15.44%,相比 KDD2020 的接收率16.9%有所下降。接收论文列表可以访问如下链接获取:

https://kdd.org/kdd2021/accepted-papers/index

本文分享一篇KDD 2021的最新论文,STGODE,关于交通预测。其将CGNN(continous graph neural network)应用于多变量时序预测中交通预测。

Preliminary

Challenge

现有的工作例如DCRNN、STGCN都是将空间和时间分割建模并没有统一建模交通系统中的时空依赖。其次是现有基于GCN的工作无法通过增加深度扩大空间感受野,因为它们都会遭受一个叫做over-smoothing的问题,也即当GCN堆叠过多层数时所有节点的表征将趋于相似。最后是大多数的交通预测工作只考虑了空间结构的相似度却忽略了语义上的相似度。

Motivation

残差结构可以被看做是离散的常微分方程,现在已经存在通过ODE将残差连接的GCN表达为连续的GCN工作。作者考虑将CGNN(continous graph neural network)应用于交通预测以处理GCN过平滑的问题并同时提取时空依赖。

Contribution

  • 作者提出了一个新的GCN的continuous representation增加GCN的深度扩大空间感受野捕捉更深层次的时空依赖。
  • 作者使用了基于空间的邻接矩阵以及基于语义的邻接矩阵。
  • 此文在多个交通数据集上取得了较好的结果。

Model

Adjacency Matrix Construction:

Tensor-based Spatial-Temporal Graph ODE:

Temporal Convolutional Blocks:

作者使用了1-D dilated temporal convolutional network捕捉多粒度的时间依赖:

Loss Function:

作者和STSGCN等一样使用了huber loss:

Experiments

此文使用的交通数据集如下:

从下图与baselines的比较可以看出此文的效果其实很难说好吧,可能是因为其总体框架的原因吧。

下图的消融实验中STGCN*是将本文的框架中的CGCN换位普通的GCN,only-spatial是没有语义邻接矩阵,no-ho是离散的GCN式子中没有

初始连接,matrix-based将常微分方程改写为

去除时间维度的影响。从结果可以看出CGCN比普通的GCN还是强大许多的,通过语义的矩阵也很重要。

最后作者做了普通GCN和CGCN在增加深度时的对比,可以看出CGCN能增加导6层左右。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-08-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 时序人 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Preliminary
  • Challenge
  • Motivation
  • Contribution
  • Model
    • Adjacency Matrix Construction:
      • Tensor-based Spatial-Temporal Graph ODE:
        • Temporal Convolutional Blocks:
          • Loss Function:
          • Experiments
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档