前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >论文阅读02——《Attributed Graph Clustering: A Deep Attentional Embedding Approach》

论文阅读02——《Attributed Graph Clustering: A Deep Attentional Embedding Approach》

作者头像
Marigold
发布2022-06-17 13:42:16
7310
发布2022-06-17 13:42:16
举报
文章被收录于专栏:Marigold

论文阅读02——《Attributed Graph Clustering: A Deep Attentional Embedding Approach》

作者:Chun Wang, Shirui Pan, Ruiqi Hu, Guodong Long, Jing Jiang, Chengqi Zhang 发表时间:2019年6月15日 arXiv 论文地址:https://arxiv.org/pdf/1906.06532.pdf

目录

Ideas:

  1. Two-step的图嵌入方法不是目标导向的,聚类效果不好,提出一种基于目标导向的属性图聚类框架。

所谓目标导向,就是说特征提取和聚类任务不是独立的,提取的特征要在一定程度上有利于聚类,那么如何实现?可以通过自训练聚类的方式,将隐藏图嵌入产生的软聚类分配与聚类联合优化。

  1. 提出图注意力自动编码器

Model:

Two-step

image.png
image.png

::: Two-Step的意思是图嵌入的生成和聚类是两个独立的部分,本文所提出的模型图嵌入和聚类之间联合优化。

DAEGC

image.png
image.png

::: 这幅图的结构也是非常清晰明了,分为两个部分:

  • 图注意力自动编码器部分
  • 自训练聚类

自然而然的,该任务的目标函数就由两部分组成,重建损失和聚类损失:\mathcal{L}=\mathcal{L}_r+\gamma \mathcal{L}_c ,下面分别介绍图注意力自动编码器和自训练聚类模块:

图注意力自动编码器

图注意力自动编码器是GAT的变体,修改了注意力系数的计算方式,在GAT的基础上增加了t阶邻居的拓扑结构信息。具体来说通过计算以下公式:

M=(B+B^2+...+B^t)/t

其中,如果e_{ij} \in E, B_{ij}=1/d_{i} ,否则B_{ij}=0d_i是节点i的度。注意力系数通过以下公式计算得到:

其中,\delta是激活函数LeakyReLU。堆叠两层图注意层得到图注意力自动编码器的编码器部分:

解码器部分使用内积解码器:

重建损失为:

自训练聚类模块

使用t分布来衡量图嵌入与k-means聚类中心的相似度:

q_{iu}表示节点i属于簇u的概率,将其看作是每个节点的软聚类分配标签,如果值越大,那么可信度越高,通过平方运算将这种可信度放大:

最小化P和Q之间的KL散度损失达到自训练的目的:

具体算法流程
image.png
image.png

::: 代码:https://github.com/kouyongqi/DAEGC

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022/05/08 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 论文阅读02——《Attributed Graph Clustering: A Deep Attentional Embedding Approach》
    • 目录
      • Ideas:
        • Model:
          • Two-step
          • DAEGC
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档