前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >图嵌入表示TADW:当DeepWalk加上外部文本信息

图嵌入表示TADW:当DeepWalk加上外部文本信息

作者头像
NewBeeNLP
发布2021-02-02 09:33:59
9630
发布2021-02-02 09:33:59
举报
文章被收录于专栏:NewBeeNLP

大家好,这是Graph Embedding系列文章的第四篇,如果想回顾下之前的几篇,请戳 ?

下面看看来自清华的TADW

  • 论文:Network Representation Learning with Rich Text Information[1]
  • 代码:https://github.com/albertyang33/TADW

DeepWalk的影响力可太大了,今天这篇包括之前介绍的几篇Graph Embedding文章都是在其基础上的优化。在之前,大多数网络表示学习研究仅仅考虑网络结构,而忽略了节点可能包含的丰富的信息,例如节点文本信息。

如果想结合的话,一个简单直观的做法是,分别学习 网络结构的表示 以及 文本特征的表示,然后将两者通过concat操作或者其他操作拼接在一起。但是这样丢失了两者的原始复杂交互,为此论文作者提出一种 『Text-Associated DeepWalk:TADW』模型,从矩阵分解的角度优化deepwalk,将丰富的节点文本信息融入进模型。下面来看看具体模型吧~

模型

DeepWalk等价于矩阵分解

论文的一个成果是证明了deepwalk可以被认为是一个矩阵分解的操作,如下图

其中,

M \in R^{|V| \times|V|}

是待分解的矩阵,其中每个元素

M_{ij}

代表从节点

v_{i}

经过固定步长的随机游走到达节点

v_{j}

的平均概率对数。这里的矩阵分解其实就是和Skip-Gram一样的,感兴趣的可以看看另外一篇关于词向量矩阵分解的论文:Neural Word Embedding as Implicit Matrix Factorization[2]

ps. 原论文中有关于这个的详细证明,自行查阅。

One more step

那么如何在矩阵分解中加入额外信息呢?那当然是继续加入一个矩阵,如下图,

黄色的矩阵为新加入的文本特征矩阵。

如果是一般的矩阵分解,损失函数为,

\min _{W, H} \sum_{(i, j) \in \Omega}\left(M_{i j}-\left(W^{T} H\right)_{i j}\right)^{2}+\frac{\lambda}{2}\left(\|W\|_{F}^{2}+\|H\|_{F}^{2}\right)

对于TADW,可以稍微调整为,

\min _{W, H}\left\|M-W^{T} H T\right\|_{F}^{2}+\frac{\lambda}{2}\left(\|W\|_{F}^{2}+\|H\|_{F}^{2}\right)

可以发现,对于

W

H

矩阵,在固定其中一个的情况下,整个损失函数对于另外一个来说是凸函数,所以优化过程可以交替固定和更新两个矩阵即可。

实验

实验的话,是在几个常用的数据集上,对不同嵌入模型得出的embedding经过SVM后评判分类效果,

尾巴

文章虽然比较老,但是从另一个角度分析了经典算法DeepWalk,并且应该算是第一批提出将节点文本信息融入network的工作,还是很有新意。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-01-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 NewBeeNLP 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 模型
    • DeepWalk等价于矩阵分解
      • One more step
      • 实验
      • 尾巴
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档