从马尔科夫链到吉布斯采样与PageRank

马尔科夫链表示state的链式关系,下一个state只跟上一个state有关。 吉布斯采样通过采样条件概率分布得到的样本点,近似估计概率分布P(z)P(z)。PageRank通过节点间的连接,估计节点的重要程度rr。吉布斯采样中,state代表不同的样本点,state的分布就是P(z)P(z)。PageRank中,state代表不同节点的分数,state的分布就是要求的rr。不论吉布斯采样还是PageRank,state的分布本质上都是马尔科夫链,而最后都希望state的分布是独一并且稳定的。

Markov Chain

介绍

上图表示了一个典型的马尔科夫链,每个城市A、B、C代表不同的state。该图描述了不同state间的转移变化关系。并且下一个时间的state只和上一个时间的state有关。

稳定态

想象上述的马尔科夫链,state不停的变化,我们可以求出不同state的概率,也就是state的概率分布。

最简单的办法是列出不同state的概率公式,然后解线性方程组求解,如下:

可是,单一稳定的state不一定存在,例如下面两种情况:

  • Spider trap,a⇔ba \Leftrightarrow b,相当于状态被困在某区域(多个状态)。
  • Dead End,a⇒ba \Rightarrow b,相当于状态被困在单个状态中。

那么,什么情况下才有单一稳定的state的存在呢?

单一稳定的state分布的存在的充分条件是:对于任意两个states1,s2s_1,s_2,它们之间的状态转移概率不为0。也就是p(s1|s2)>0p(s_1|s_2)>0。也就是说,state间(包含自身)都有连接,这样的话便存在单一稳定的state分布。

Gibbs Sampling

介绍

Gibbs Sampling遇到的问题是:在已知P(zi|z1,...,zi−1,zi+1,...zN)P(z_i|z_1,...,z_{i-1},z_{i+1},...z_{N})分布的情况下,求变量P(z)(z=z1,...,zN)P(z) (z = {z_1,...,z_N})的分布。

Gibbs Sampling的解决办法是:设置外循环tt,遍历采样点数;设置内循环kk,遍历特征数,对于每一个特征值ztkz_k^t,根据分布ztk∼P(zk=ztk|z1=zt1,z2=zt2,...)z_k^t \sim P(z_k = z_k^t | z_1 =z_1^t, z_2 =z_2^t,...)采样ztkz_k^t。最后,根据z1,z2,z3,...{z^1,z^2,z^3,...}得到P(z)(z=z1,...,zN)P(z) (z = {z_1,...,z_N})的分布。

Gibbs Sampling与Markov

吉布斯采样的数据z1,z2,z3,...{z^1,z^2,z^3,...}相当于马尔科夫链中不同的state(因为ztz^t只和zt−1z^{t-1}有关)。如果马尔科夫链存在单一且稳定的状态分布,那么就可以通过采样求出P(z)(z=z1,...,zN)P(z) (z = {z_1,...,z_N})。

下面,分两个步骤证明:

  1. Gibbs Sampling存在单一且稳定的状态分布。
  2. Gibbs Sampling单一且稳定的状态分布就是P(z)P(z)。

Gibbs Sampling中条件概率没有0值确保了Gibbs Sampling存在单一且稳定的状态分布。

根据概率公式,可推导Gibbs Sampling单一且稳定的状态分布就是P(z)P(z)。

Page Rank

介绍

Page Rank的哲学是:一个点的重要性跟这个点的in-link有关,不同的in-link权重不一样,score越大的节点对应的in-link也就越重要。 令节点的score向量为rr,节点的邻接矩阵为MM。那么,rr和MM的关系可写作:

r=Mr

r = Mr

示例如下:

这个例子中,可以把矩阵MM和向量rr相乘当做MM的列以向量rr为权重进行线性组合,矩阵MM同一列的不同行代表该节点向其他节点的分发连接。这样理解起来就比较清晰了。

rr的求解可以使用特征值-特征向量分解,最大特征值对应的特征向量即是rr。

稳定性

rr的值在满足特定情况下才是单一且稳定的。

实际计算Page Rank中,需要增加一个条件:每个节点都有1N\frac{1}{N}的概率变换到任何其他节点状态。

原来的式子是:

r=Mr

r = Mr

考虑稳定性后的式子是:

Ar=βM+(1−β)1N11T=Ar

\begin{split} A &= \beta M + (1-\beta) \frac{1}{N} \mathbf{1} \mathbf{1}^T \\ r &= Ar \end{split}

示例如下:

稀疏计算

在上面的计算公式中,矩阵AA是稠密的,空间复杂度是O(N2)O(N^2),占得空间很大。

因此,改进计算如下:

Arr=βM+(1−β)1N11T=Ar=βMr+1−βN

\begin{split} A &= \beta M + (1-\beta) \frac{1}{N} \mathbf{1} \mathbf{1}^T \\ r &= Ar \\ r &= \beta M r + \frac{1-\beta}{N} \end{split}

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能LeadAI

线性回归回顾与logistic回归 | 机器学习笔记

01 再看线性回归 之前我们选择线性回归的时候,只是认为那些数据看上去很符合线性的样子,选择最小平方损失函数的时候,也是直接提出来的,没有考虑过为什么会是这个样...

35813
来自专栏计算机视觉战队

深度学习网络用于面部表情特征学习

最近看了一篇关于面部表情特征学习的文章,感觉整体框架和构思特别好,就总结了下,和大家分享。希望得到大家的支持和认可,后期大家互相讨论,互相学习!谢谢!O(∩_∩...

2999
来自专栏PPV课数据科学社区

谷歌最新机器学习术语表,A/B 测试 、混淆矩阵、决策边界……都在这里了!

日前,谷歌发布机器学习术语表,以下术语表中列出了一般的机器学习术语和 TensorFlow 专用术语的定义。 A A/B 测试 (A/B testing) 一种...

2756
来自专栏视觉求索无尽也

【图像检索】【TPAMI重磅综述】 SIFT与CNN的碰撞:万字长文回顾图像检索任务十年探索历程

基于内容的图像检索任务(CBIR)长期以来一直是计算机视觉领域重要的研究课题,自20世纪90年代早期,研究人员先后采用了图像的全局特征,局部特征,卷积特征的方法...

1581
来自专栏Coding迪斯尼

使用卷积网络实现计算机图像识别:卷积和max pooling操作介绍

1634
来自专栏程序生活

Contrastive Loss(对比损失)Contrastive Loss

1644
来自专栏机器学习算法原理与实践

MCMC(二)马尔科夫链

    在MCMC(一)蒙特卡罗方法中,我们讲到了如何用蒙特卡罗方法来随机模拟求解一些复杂的连续积分或者离散求和的方法,但是这个方法需要得到对应的概率分布的样本...

42232
来自专栏PPV课数据科学社区

机器学习系列:(八)感知器

感知器 前面,我们介绍了广义线性模型,用联接方程描述解释变量、超参数和响应变量的线性关系。这一章,我们将介绍另一种线性模型,称为感知器(perceptron)。...

33112
来自专栏云时之间

深度学习与神经网络:AIC,BIC,L1,L2

1254
来自专栏小樱的经验随笔

浅谈关于特征选择算法与Relief的实现

一、 背景 1) 问题 在机器学习的实际应用中,特征数量可能较多,其中可能存在不相关的特征,特征之间也可能存在相关性,容易导致如下的后果: 1.     特征个...

7604

扫码关注云+社区