前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >简单易学的机器学习算法——Gibbs采样

简单易学的机器学习算法——Gibbs采样

作者头像
felixzhao
发布2019-01-31 16:31:20
9350
发布2019-01-31 16:31:20
举报
文章被收录于专栏:null的专栏null的专栏

一、Gibbs采样概述

前面介绍的Metropolis-Hastings采样为从指定分布中进行采样提供了一个统一的框架,但是采样的效率依赖于指定的分布的选择,若是选择的不好,会使得接受率比较低,大量的采样被拒绝,影响到整体的收敛速度。

Gibbs采样是Metropolis-Hastings采样算法的特殊形式,即找到一个已知的分布,使得接受率α=1\alpha =1。这样,每次的采样都会被接受,可以提高MCMC的收敛速度。

二、Gibbs采样算法的流程

在这部分,先直接给出Gibbs采样算法的流程,对于Gibbs采样算法的有效性将在第三部分给出论述,Gibbs采样算法的具体流程如下所述:

  • 初始化时间t=1t=1
  • 设置u=(u1,u2,⋯,uN)\mathbf{u}=\left ( u_1,u_2,\cdots ,u_N \right )的值,并初始化初始状态Θ(t)=u\Theta ^{\left (t \right )}=\mathbf{u}
  • 重复以下的过程:
    • t=t+1t=t+1
    • 对每一维:i=1,2,⋯Ni=1,2,\cdots N
      • θ(t)1∼p(θ1∣θ(t−1)2,⋯,θ(t−1)N) \theta _1^{\left ( t \right )}\sim p\left ( \theta _1\mid \theta _2^{\left ( t-1 \right )},\cdots ,\theta _N^{\left ( t-1 \right )} \right )
      • θ(t)2∼p(θ2∣θ(t)1,⋯,θ(t−1)N)\theta _2^{\left ( t \right )}\sim p\left ( \theta _2\mid \theta _1^{\left ( t \right )},\cdots ,\theta _{N}^{\left ( t-1 \right )} \right )
      • ⋯\cdots
      • θ(t)N−1∼p(θN−1∣θ(t)1,⋯,θ(t−1)N)\theta _{N-1}^{\left ( t \right )}\sim p\left ( \theta _{N-1}\mid \theta _1^{\left ( t \right )},\cdots ,\theta _{N}^{\left ( t-1 \right )} \right )
      • θ(t)Np(θNθ(t)1,⋯,θ(t)N−1)\theta _N^{\left ( t \right )}\sim p\left ( \theta _N\mid \theta _1^{\left ( t \right )},\cdots ,\theta _{N-1}^{\left ( t \right )} \right )
  • 直到t=Tt=T

Gibbs采样有一个缺陷,必须知道条件分布

三、上述过程满足细致平稳条件

为简单起见,我们假设所需采样的分布为一个二元分布f(x,y)f\left ( x,y \right ),假设两个状态为(x1,y1)\left ( x_1,y_1 \right )和(x1,y2)\left ( x_1,y_2 \right )。已知:

p(x1,y1)⋅p(y2∣x1)=p(x1)⋅p(y1∣x1)⋅p(y2∣x1)

p\left ( x_1,y_1 \right )\cdot p\left ( y_2\mid x_1 \right )=p\left ( x_1 \right )\cdot p\left ( y_1\mid x_1 \right )\cdot p\left ( y_2\mid x_1 \right )

p(x1,y2)⋅p(y1∣x1)=p(x1)⋅p(y2∣x1)⋅p(y1∣x1)

p\left ( x_1,y_2 \right )\cdot p\left ( y_1\mid x_1 \right )=p\left ( x_1 \right )\cdot p\left ( y_2\mid x_1 \right )\cdot p\left ( y_1\mid x_1 \right )

所以有:

p(x1,y1)⋅p(y2∣x1)=p(x1,y2)⋅p(y1∣x1)

p\left ( x_1,y_1 \right )\cdot p\left ( y_2\mid x_1 \right )=p\left ( x_1,y_2 \right )\cdot p\left ( y_1\mid x_1 \right )

由此可见,Gibbs采样的过程是满足细致平稳条件的。这里直接取p(y2∣x1)p\left ( y_2\mid x_1 \right )为转移概率,则α=1\alpha =1,可见Gibbs采样算法是Metropolis-Hastings采样的特殊形式。

四、实验

4.1、前提

假设从二项正态分布中进行采样,假设Θ=(θ1,θ2)\Theta =\left ( \theta _1,\theta _2 \right ),且:

Θ∼Norm(μ,Σ)

\Theta \sim Norm\left (\mu ,\Sigma \right )

其中

μ=(μ1,μ2)

\mu =\left ( \mu _1,\mu _2 \right )

Σ=(1ρρ1)

\Sigma =\begin{pmatrix} 1 & \rho \\ \rho & 1 \end{pmatrix}

已知:

θ1∼Norm(μ1+ρ(θ2−μ2),1−ρ2−−−−−√)

\theta _1\sim Norm\left ( \mu _1+\rho \left ( \theta _2-\mu _2 \right ), \sqrt{1-\rho ^2} \right )

θ2∼Norm(μ2+ρ(θ1−μ1),1−ρ2−−−−−√)

\theta _2\sim Norm\left ( \mu _2+\rho \left ( \theta _1-\mu _1 \right ), \sqrt{1-\rho ^2} \right )

4.2、流程

  • 初始化时间t=1t=1
  • 设置u=(u1,u2)\mathbf{u}=\left ( u_1,u_2 \right )的值,并初始化初始状态Θ(t)=u\Theta ^{\left (t \right )}=\mathbf{u}
  • 重复以下的过程:
    • t=t+1t=t+1
    • 对每一维:i=1,2i=1,2
      • θ(t)1∼Norm(μ1+ρ(θ2−μ2),1−ρ2−−−−−√) \theta _1^{\left ( t \right )}\sim Norm\left ( \mu _1+\rho \left ( \theta _2-\mu _2 \right ), \sqrt{1-\rho ^2} \right )
      • θ(t)2∼Norm(μ2+ρ(θ1−μ1),1−ρ2−−−−−√)\theta _2^{\left ( t \right )}\sim Norm\left ( \mu _2+\rho \left ( \theta _1-\mu _1 \right ), \sqrt{1-\rho ^2} \right )
  • 直到t=Tt=T

4.3、实验代码

代码语言:javascript
复制
'''
Date:20160704
@author: zhaozhiyong
'''
import random
import math
import matplotlib.pyplot as plt

def p_ygivenx(x, m1, m2, s1, s2):
    return (random.normalvariate(m2 + rho * s2 / s1 * (x - m1), math.sqrt(1 - rho ** 2) * s2))

def p_xgiveny(y, m1, m2, s1, s2):
    return (random.normalvariate(m1 + rho * s1 / s2 * (y - m2), math.sqrt(1 - rho ** 2) * s1))

N = 5000
K = 20
x_res = []
y_res = []
m1 = 10
m2 = -5
s1 = 5
s2 = 2

rho = 0.5
y = m2

for i in xrange(N):
    for j in xrange(K):
        x = p_xgiveny(y, m1, m2, s1, s2)
        y = p_ygivenx(x, m1, m2, s1, s2)
        x_res.append(x)
        y_res.append(y)

num_bins = 50
plt.hist(x_res, num_bins, normed=1, facecolor='green', alpha=0.5)
plt.hist(y_res, num_bins, normed=1, facecolor='red', alpha=0.5)
plt.title('Histogram')
plt.show()

4.4、实验结果

这里写图片描述
这里写图片描述
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016年07月04日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、Gibbs采样概述
  • 二、Gibbs采样算法的流程
  • 三、上述过程满足细致平稳条件
  • 四、实验
    • 4.1、前提
      • 4.2、流程
        • 4.3、实验代码
          • 4.4、实验结果
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档