前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >关于强化学习(2)

关于强化学习(2)

作者头像
Mezereon
发布2018-11-07 11:23:10
5660
发布2018-11-07 11:23:10
举报
文章被收录于专栏:MyBlogMyBlog

根据 Simple statistical gradient-following algorithms for connectionist reinforcement learning

5. 段落式(Episodic)的REINFORCE算法

该部分主要是将我们已有的算法进行扩展, 扩展到拥有temporal credit-assignment component的问题上.

特别地, 我们假设一个网络

N
N

, 基于一段一段这样来训练, 每一段都包含

k
k

个时间步, 每一个时间步, 许多单元会重新计算它们的输出, 整个环境可能会改变其非强化的输入, 在每一段的结束的时候, 一个强化值

r
r

将会被传递到网络

N
N

.

该算法的引出是基于使用按时间展开(unfolding-in-time)进行映射, 即当任意的一个网络

N
N

在一个时间周期中进行操作, 另一个网络

N^*
N^*

没有周期但是展现对应的行为. 展开的网络

N^*
N^*

通过在每一个时间步对

N
N

进行复制来获得.

形式化来说, 这相当于和每一个在

N
N

中的时间依赖的变量

v
v

联系起来, 对应的

N^*
N^*

以时间为索引的集合

\{v^t\}
\{v^t\}

, 其中

N^*
N^*

中的变量并不依赖于时间, 在

N
N

中的

w_{ij}
w_{ij}

就对应

N^*
N^*

中的

\{w_{ij}^t\}
\{w_{ij}^t\}

.

给出参数

w_{ij}
w_{ij}

的增量形式:

\Delta w_{ij}=\alpha_{ij}(r-b_{ij})\sum_{t=1}^k{e_{ij}(t)}
\Delta w_{ij}=\alpha_{ij}(r-b_{ij})\sum_{t=1}^k{e_{ij}(t)}

上述形式和我们之前给的形式有点类似, 唯一出现改动的地方就是

e_{ij}
e_{ij}

变为

\sum_{t=1}^k{e_{ij}(t)}
\sum_{t=1}^k{e_{ij}(t)}

这个对应于非周期的网络

N^*
N^*

, 即

e_{ij}(t)=e_{ij}^t
e_{ij}(t)=e_{ij}^t

我们举个例子吧, 一个内部全连接的递归神经网络(Recurrent Neural Network), 使用伯努利-逻辑斯蒂单元, 有

e_{ij}(t)=(y_i(t)-p_i(t))x_j(t-1)
e_{ij}(t)=(y_i(t)-p_i(t))x_j(t-1)

需要注意的是baseline是独立于其他变量和输出的, 我们称具有以上格式的算法为段落式的REINFORCE算法 给出完整的权值修改公式:

\Delta w_{ij}=\alpha_{ij}(r-b_{ij})\sum_{t=1}^k{(y_i(t)-p_i(t))x_j(t-1)}
\Delta w_{ij}=\alpha_{ij}(r-b_{ij})\sum_{t=1}^k{(y_i(t)-p_i(t))x_j(t-1)}
定理2:

对于任意的段落式REINFORCE算法,

E\{\Delta W| W\}
E\{\Delta W| W\}

\nabla_W E\{r|W\}
\nabla_W E\{r|W\}

的内积是非负的, 更进一步, 如果

\alpha_{ij}>0
\alpha_{ij}>0

, 那么当仅当

\nabla_WE\{r|W\}=0
\nabla_WE\{r|W\}=0

, 内积才为0, 如果

\alpha_{ij}
\alpha_{ij}

是和

i,j
i,j

独立的话, 有

E\{\Delta W|W\}=\alpha\nabla_WE\{r|W\}
E\{\Delta W|W\}=\alpha\nabla_WE\{r|W\}

,

在段落式的REINFORCE算法中, 性能度量应该改为

E\{\sum_{t=1}^{k}{r(t)|W}\}
E\{\sum_{t=1}^{k}{r(t)|W}\}

6. 多参数分布的REINFORCE

REINFORCE框架的一个有趣的应用就是对于单元的学习算法的发展决定了它们的随机标量输出, 输出来自于多参数分布而不是使用半线性随机单元的单参数分布. 举个例子, 试想一个这样的单元, 首先得到确定性的计算结果, 基于权值和输入, 来获得所有参数来控制的随机数值生成过程的值, 接着将符合一个合适的分布的输出随机输出. 特别地, 正态分布具有两个参数, 均值

\mu
\mu

和标准差

\sigma
\sigma

, 一个单元根据这样的一个分布来进行输出, 那么将要首先计算出

\mu
\mu

\sigma
\sigma

的值, 然后根据该正态分布随机进行输出, 保证均值和标准差.

一种高斯单元(Gaussian Unit)的可能的有用特征是它输出的均值和变化是单独地可控的, 只要分离的权值(或者可能是输入)被用来确定这两个参数, 有趣的点是控制标准差

\sigma
\sigma

就相当于控制单元的搜索行为. 通俗来讲, 使用多参数分布的随机单元就有可能控制探索行为的等级, 并且和在哪里进行探索无关, 这就与使用单参数分布的单元不一样.

这里我们注意到对于任意单元的REINFORCE算法是易于推导出来, 我们用高斯单元来作为一个例子. 为了保证确定这种单元输出的均值和标准差的特定方法, 而不是它的输入和它的权重, 我们将会简单地将单元的均值和标准差它们看作是单元的自适应的参数. 在实际的自适应参数和输入上这些参数的任何更多的通用的函数依赖需要链式法则, Gullapalli提出来一个计算这些参数的方法是, 使用通过输入行的共同集合的分离的权值的和(并且使用一些不同的学习规则), 为了简化这种方法, 我们关注于单一的单元并且自始至终忽略单元索引的下标.

给出这样的密度函数

g
g

:

g(y, \mu, \sigma)=\frac{1}{(2\pi)^{\frac{1}{2}}\sigma}{e^{-\frac{(y-\mu)^2}{2\sigma}}}
g(y, \mu, \sigma)=\frac{1}{(2\pi)^{\frac{1}{2}}\sigma}{e^{-\frac{(y-\mu)^2}{2\sigma}}}

进而

e_\mu = \frac{\partial ln g}{\partial \mu}=[e^{\frac{(y-\mu)^2}{2\sigma}}]\frac{1}{(2\pi)^{\frac{1}{2}}\sigma}\frac{\partial}{\partial \mu}(e^{-\frac{(y-\mu)^2}{2\sigma}})=\frac{y-\mu}{\sigma^2}
e_\mu = \frac{\partial ln g}{\partial \mu}=[e^{\frac{(y-\mu)^2}{2\sigma}}]\frac{1}{(2\pi)^{\frac{1}{2}}\sigma}\frac{\partial}{\partial \mu}(e^{-\frac{(y-\mu)^2}{2\sigma}})=\frac{y-\mu}{\sigma^2}
e_\sigma=\frac{\partial ln g}{\partial \sigma}=-\frac{\partial ln(\sqrt{(2\pi)}\sigma)}{\partial \sigma}-\frac{\partial (\frac{(y-\mu)^2}{2\sigma})}{\partial \sigma}=\frac{(y-\mu)^2-\sigma^2}{\sigma^3}
e_\sigma=\frac{\partial ln g}{\partial \sigma}=-\frac{\partial ln(\sqrt{(2\pi)}\sigma)}{\partial \sigma}-\frac{\partial (\frac{(y-\mu)^2}{2\sigma})}{\partial \sigma}=\frac{(y-\mu)^2-\sigma^2}{\sigma^3}

我们可以得到一个更新的表达式

\Delta \mu = \alpha_\mu(r-b_\mu)\frac{y-\mu}{\sigma^2}
\Delta \mu = \alpha_\mu(r-b_\mu)\frac{y-\mu}{\sigma^2}
\Delta \sigma = \alpha_\sigma(r-b_{\sigma})\frac{(y-\mu)^2-\sigma^2}{\sigma^3}
\Delta \sigma = \alpha_\sigma(r-b_{\sigma})\frac{(y-\mu)^2-\sigma^2}{\sigma^3}

我们令

\alpha_\mu=\alpha_\sigma=\alpha \sigma^2, b_\mu=b_\sigma
\alpha_\mu=\alpha_\sigma=\alpha \sigma^2, b_\mu=b_\sigma

可以得到简化的版本

推广到指数分布簇上

g(y,\mu, \theta_2,...,\theta_k)=exp[Q(\mu, \theta_2,...,\theta_k)y+D(\mu, \theta_2,...,\theta_k)+S(y)]
g(y,\mu, \theta_2,...,\theta_k)=exp[Q(\mu, \theta_2,...,\theta_k)y+D(\mu, \theta_2,...,\theta_k)+S(y)]

对于均值, 仍然有

e_\mu = \frac{\partial ln g}{\partial \mu}=\frac{y-\mu}{\sigma^2}
e_\mu = \frac{\partial ln g}{\partial \mu}=\frac{y-\mu}{\sigma^2}

7. 和反向传播的兼容性

当我们使用强化算法的时候, 会忽略掉所有单元之间连接的信息, 作为有监督学习的算法, 反向传播就完全利用了这样的信息, 注意到我们的强化学习是针对目标函数和环境的, 所以不像有监督的学习那样, 但是我们可以将反向传播和我们的强化学习结合起来.

7.1 使用确定性的隐藏单元的网络

考虑一个前馈的网络, 拥有确定的隐藏单元, 使用随机的输出单元, 使用这样的一个网络对于强化学习系统是有意义的, 因为对于输出单元有随机性的限制使得发生必要的探索.

x
x

是网络的输入向量,

y
y

是输出向量, 我们可以定义

g(\xi, W, x)=Pr(y=\xi|W, x)
g(\xi, W, x)=Pr(y=\xi|W, x)

为概率质量函数, 描述了网络的输入和输出. 只不过整个网络的输出是一个向量而不是标量, 对于网络里面的任意一个权值

w_{ij}
w_{ij}

, 有

\partial E\{r|W\}/ \partial w_{ij}
\partial E\{r|W\}/ \partial w_{ij}

的无偏估计是

(r-b_{ij})\partial lng/\partial w_{ij}
(r-b_{ij})\partial lng/\partial w_{ij}

O
O

是输出单元的索引集合, 因为所有的随机性都在输出单元上, 并且输出单元的随机性是独立的. 我们有

Pr(y=\xi|W, x)=\prod_{k\in O}{Pr(y_k=\xi_k|W,x)}=\prod_{k\in O}{Pr(y_k=\xi_k|w^k,x^k)}
Pr(y=\xi|W, x)=\prod_{k\in O}{Pr(y_k=\xi_k|W,x)}=\prod_{k\in O}{Pr(y_k=\xi_k|w^k,x^k)}
x_k
x_k

是由于将模式

x
x

呈现给网络而出现在第

k
k

个单元的输入处的模式 有

lng(\xi, W, x)=ln\prod_{k\in O}{g_k(\xi_k, w^k, x^k)}=\sum_{k\in O}{lng_k(\xi_k, w^k, x^k)}
lng(\xi, W, x)=ln\prod_{k\in O}{g_k(\xi_k, w^k, x^k)}=\sum_{k\in O}{lng_k(\xi_k, w^k, x^k)}

故, 可以得到

\frac{\partial lng(\xi, W, x)}{\partial w_{ij}}=\sum_{k\in O}{\frac{\partial g_k(\xi_k, w^k, x^k)}{\partial w_{ij}}}
\frac{\partial lng(\xi, W, x)}{\partial w_{ij}}=\sum_{k\in O}{\frac{\partial g_k(\xi_k, w^k, x^k)}{\partial w_{ij}}}

以上的求和可能可以使用反向传播来计算出来, 特别地, 如果是伯努利非线性单元, 我们可以直接使用参数

p_k
p_k

作为中间变量, 故有:

\frac{\partial ln g}{\partial w_{ij}}=\sum_{k\in O}{\frac{\partial lng_k}{\partial p_k}\frac{\partial p_k}{\partial w_{ij} }}
\frac{\partial ln g}{\partial w_{ij}}=\sum_{k\in O}{\frac{\partial lng_k}{\partial p_k}\frac{\partial p_k}{\partial w_{ij} }}

我们可以直接计算得到

\frac{\partial ln g_k}{\partial p_k}=\frac{y_k-p_k}{p_k(1-p_k)}
\frac{\partial ln g_k}{\partial p_k}=\frac{y_k-p_k}{p_k(1-p_k)}

我们只需要将无偏估计进行反向传播即可

7.2 通过随机数字生成器的反向传播

考虑一个随机的半线性单元, 并且假设有这么一个函数

J
J

,

J
J

对输出

y_i
y_i

有一定的确定性的依赖, 这种条件下, 我们假设这个单元是输出单元并且

J=E\{r|W\}
J=E\{r|W\}

, 我们可以利用

\frac{\partial J}{\partial y_i}
\frac{\partial J}{\partial y_i}

来计算

\frac{\partial J}{\partial p_i}
\frac{\partial J}{\partial p_i}

我们还可以推出

E\{\partial J/\partial y_i|p_i\}
E\{\partial J/\partial y_i|p_i\}

决定了

\partial E\{J|p_i\}/\partial p_i
\partial E\{J|p_i\}/\partial p_i

不幸的是, 这种性质并不是通用的. 如果

J
J

y_i
y_i

的非线性函数的话. 然而, 如果输出是一个随机数生成器, 可以被写成一个参数可微的函数, 那么我们就可以利用确定性的计算.

考虑一个正态随机数生成器, 比如高斯单元, 输出

y
y

根据

\mu
\mu

\sigma
\sigma

随机生成

y=\mu+\sigma z
y=\mu+\sigma z

其中

z
z

标准正态离差(standard normal deviate), 注意到

\frac{\partial y}{\partial \mu}=1
\frac{\partial y}{\partial \mu}=1

以及

\frac{\partial y}{\partial \sigma}=z=\frac{y-\mu}{\sigma}
\frac{\partial y}{\partial \sigma}=z=\frac{y-\mu}{\sigma}

因此, 我们可以将高斯隐藏单元和REINFORCE结合起来

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.10.20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 5. 段落式(Episodic)的REINFORCE算法
    • 定理2:
    • 6. 多参数分布的REINFORCE
    • 7. 和反向传播的兼容性
      • 7.1 使用确定性的隐藏单元的网络
        • 7.2 通过随机数字生成器的反向传播
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档