前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >从Markov Process到Markov Decision Process

从Markov Process到Markov Decision Process

作者头像
Steve Wang
发布2019-10-22 14:58:25
6150
发布2019-10-22 14:58:25
举报
文章被收录于专栏:从流域到海域从流域到海域

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

本文链接:https://blog.csdn.net/Solo95/article/details/100160595

Recall: Markov Property

information state: sufficient statistic of history State sts_tst​ is Markov if and only if: p(st+1∣st,at)=p(st+1∣ht,at)p(s_{t+1}|s_t,a_t)=p(s_{t+1}|h_t,a_t)p(st+1​∣st​,at​)=p(st+1​∣ht​,at​) Future is independent of past given present

Markov Process or Markov Chain

无记忆性随机过程

  • 具有马尔科夫性质的随机状态的序列

马尔科夫过程(Markov Process)的定义:

  • S是一个(有限)的状态集(s ∈S\in S∈S)
  • P是动态/变迁模型,它指定了p(st+1=s′∣st=s)p(s_{t+1}=s'|s_t=s)p(st+1​=s′∣st​=s)

注意:没有奖励(reward),也没有动作(actions)

如果状态数(N)是有限的,可以把P表示成一个矩阵:

在这里插入图片描述
在这里插入图片描述

Markov Reward Process (MRP)

马尔科夫奖励过程 = 马尔科夫过程 + 奖励

马尔科夫奖励过程(MRP)的定义:

  • S是一个状态的有限集(s ∈\in∈ S)
  • P是动态/变迁模型,它指定了P(st+1=s′∣st=s)P(s_{t+1}=s'|s_t=s)P(st+1​=s′∣st​=s)
  • R是一个奖励函数R(st=s)=E[rt∣st=s]R(s_t=s)=\mathbb{E}[r_t|s_t=s]R(st​=s)=E[rt​∣st​=s]
  • 折扣因子γ∈[0,1]\gamma \in[0,1]γ∈[0,1]

注意:没有动作

如果状态数(N)有限,R可以被表示成一个向量。

Return & Value Function

窗口(horizon)的定义:

  • 每一轮(episode)的时间步数目
  • 可以是有限的
  • 也被称作有限马尔科夫奖励过程

返回(return)的定义:

  • 从t开始长达整个窗口的打折奖励总和: Gt=rt+γrt+1+γ2rt+2+γ3rt+3+...G_t=r_t+\gamma r_{t+1}+\gamma^2r_{t+2}+\gamma^3r_{t+3}+...Gt​=rt​+γrt+1​+γ2rt+2​+γ3rt+3​+...

状态奖励方程(State Value Function foe a MRP)的定义:

  • 从状态s开始的返回的期望 V(s)=E[Gt∣st=s]=E[rt+γrt+1+γ2rt+2+γ3rt+3+...∣st=s]V(s) = \mathbb{E}[G_t|s_t=s]=\mathbb{E}[r_t+\gamma r_{t+1}+\gamma^2r_{t+2}+\gamma^3r_{t+3}+...|s_t=s]V(s)=E[Gt​∣st​=s]=E[rt​+γrt+1​+γ2rt+2​+γ3rt+3​+...∣st​=s]

如果过程是确定的,那么返回和奖励是相等的;大部分情况下过程是随机的,它们会是不同的。

Discount Factor

折扣因子一方面是由于被启发创造的,另一方面也是为了数学上的方便。

  • 数学上的方便(避免无限的返回(函数)和价值(函数))
  • 人类通常是以折扣因子小于1的方式行动的
  • γ=0\gamma=0γ=0仅关心即时奖励
  • γ=1\gamma=1γ=1未来奖励将等于即时奖励
  • 如果一轮(episode)的长度一直是有限的,可以使用γ=1\gamma=1γ=1

Computing the Value of a Markov Reward Process

  • 可以通过仿真(simulation)来估计 实验平均接近真实期望值的准确度大致在1n\frac{1}{\sqrt{n}}n​1​,n代表仿真次数。
  • 对返回取平均
  • 专注不等式(Concentration inequalities)限定专注于期望值的速度
  • 不需要对马尔科夫结构做出假设

但是上述过程没有利用任何world是马尔科夫的这个事实。为了得到更好的估计有额外的结构。

  • 马尔科夫性质产生额外的结构。 (the future is independent of past given present)
  • MRP的价值函数满足
在这里插入图片描述
在这里插入图片描述

矩阵形式

在这里插入图片描述
在这里插入图片描述

然后就可以以解析方式求解:

V=R+γPVV=R+\gamma PVV=R+γPV V−γPV=RV-\gamma PV = RV−γPV=R (I−γP)V=R(I - \gamma P) V = R(I−γP)V=R V=(I−γP)−1RV = (I -\gamma P)^{-1} RV=(I−γP)−1R

直接求解的算法复杂度是O(n3)O(n^3)O(n3)

矩阵P必须是定义良好即能求逆的。在以上过程中,我们假定是固定的horizon,价值函数是固定的,所以状态的下一个状态可以指向自己,self-loop是允许存在的。

一定可以求逆吗?

因为P是马尔科夫矩阵(随机矩阵),那么它的特征值将总是小于等于1,如果折扣因子小于1,那么I−γPI-\gamma PI−γP总是可逆的(证明略,感兴趣的朋友可以去查一下,博主数学不是很好。)。

Iterative Algorithm for Computing Value of a MRP

另一种求解方法是动态规划:

Initializa V0(s)=0V_0(s) = 0V0​(s)=0 for all s

代码语言:javascript
复制
For k = 1 until convergence
	For all s in S

Vk(s)=R(s)+γ∑s′∈SP(s′∣s)Vk−1(s′)V_k(s) = R(s) + \gamma \sum_{s^{'} \in S}P(s^{'}|s)V_{k-1}(s^{'})Vk​(s)=R(s)+γs′∈S∑​P(s′∣s)Vk−1​(s′)

计算复杂度: O(∣s∣2)O(|s|^2)O(∣s∣2) for each iteration (|S| = N)

收敛的条件通常使用范数来衡量,即 ∣Vk−Vk−1∣<ϵ|V_k - V_{k-1}| < \epsilon∣Vk​−Vk−1​∣<ϵ

这种计算方式的优势在于每次迭代平方复杂度,并且还有一些稍后会提及的引入actions之后的增益。

总结起来,计算MRP的价值有三种方法:

  • 模拟仿真(Simulation)
  • 解析求解(Analytic solve, requires us a step, a finite set of states)
  • 动态规划(DP)

Markov Decision Proces(MDP)

MDP = MRP + actions.

MDP的定义,MDP是一个五元组(quintuple)(S,A,P,R,γ\gammaγ):

  • S 是一个有限的马尔科夫状态集s∈Ss \in Ss∈S
  • A 是一个有限的动作集a∈Aa \in Aa∈A
  • P 是针对每一个动作的动态/迁移模型,它指定了P(st+1=s′∣st=s,at=a)P(s_{t+1}=s' | s_t = s, a_t = a)P(st+1​=s′∣st​=s,at​=a)
  • R是一个奖励函数(回报函数) R(st=s,at=a)=E[rt∣st−s,at=a]R(s_t = s, a_t = a) = \mathbb{E}[r_t|s_t - s, a_t = a]R(st​=s,at​=a)=E[rt​∣st​−s,at​=a]
  • 折扣因子 γ∈[0,1]\gamma \in [0, 1]γ∈[0,1]
MDP Policies
  • 策略(Policy)指定了在每一个状态采取什么动作
    • 可以是确定性的也可以是随机的
  • 更一般性,把策略考虑成一种条件分布 -给定一个状态,指定一个动作上的分布
  • Policy:π(a∣s)=P(at=a∣st=s)\pi(a|s) = P(a_t = a | s_t = s)π(a∣s)=P(at​=a∣st​=s)
MDP + Policy

MDP + Policy可以指定一个Markov Reward Process,因为Policy里指定了每个状态的动作,MDP就坍缩成了MRP。

更确切的讲,它们指定的是MRP(S,Rπ,Pπ,γ)MRP(S, R^\pi, P^\pi, \gamma)MRP(S,Rπ,Pπ,γ): Rπ=∑a∈Aπ(a∣s)R(s,a)R^\pi=\sum_{a \in A}\pi(a|s)R(s,a)Rπ=∑a∈A​π(a∣s)R(s,a) Pπ(s′∣s)=∑a∈Aπ(a∣s)P(s′∣s,a)P^\pi(s'|s) = \sum_{a \in A}\pi(a|s)P(s'|s,a)Pπ(s′∣s)=∑a∈A​π(a∣s)P(s′∣s,a)

这隐含着,只要你有确定的策略,我们可以使用前述的所有用来计算MRP的价值的相同方法,通过使用定义一个RπR^\piRπ和PπP^\piPπ,来计算MDP的一个策略的价值。

MDP Policy Evaluation, Iterative Algorithm

Initialize V0(s)=0V_0(s) = 0V0​(s)=0 for all s

代码语言:javascript
复制
For k = 1 until convergence
	For all s in S

Vkπ(s)=r(s,π(s))+γ∑s′∈Sp(s′∣s,π(s))Vk−1π(s′)V_k^\pi(s) = r(s,\pi(s)) + \gamma\sum_{s' \in S}p(s'|s,\pi(s))V_{k-1}^\pi(s')Vkπ​(s)=r(s,π(s))+γ∑s′∈S​p(s′∣s,π(s))Vk−1π​(s′)

对于一个特定的策略来说,这是一个Bellman backup。

在RL文献中,上面等式的右边被称作"Bellman backup"。状态或状态 - 动作对的Bellman backup是Bellman方程的右侧:即时奖励加下一个值,这是一个迭代的过程,因此叫backup。

仔细对比一下,跟前面所述MRT计算价值是一样的,只不过因为有固定的策略,所以我们使用策略来索引奖励。即为了学习一个特定策略的价值,我们通过总是采取策略所指定的动作来初始化价值函数。

练习 计算一步迭代
在这里插入图片描述
在这里插入图片描述

Vk+1(s6)=r(s6)+γ∗(0.5∗0+0.5∗10)V_{k+1}(s_6)=r(s_6)+\gamma*(0.5*0+0.5*10)Vk+1​(s6​)=r(s6​)+γ∗(0.5∗0+0.5∗10) Vk+1(s6)=0.5∗(0.5∗10)=2.5V_{k+1}(s_6)=0.5*(0.5*10)=2.5Vk+1​(s6​)=0.5∗(0.5∗10)=2.5 这个真的很简单,单纯的代公式,只要前面所述内容你都记住了,就直接能理解。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-08-30 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Recall: Markov Property
  • Markov Process or Markov Chain
  • Markov Reward Process (MRP)
  • Return & Value Function
  • Discount Factor
  • Computing the Value of a Markov Reward Process
    • Iterative Algorithm for Computing Value of a MRP
    • Markov Decision Proces(MDP)
      • MDP Policies
        • MDP + Policy
          • MDP Policy Evaluation, Iterative Algorithm
            • 练习 计算一步迭代
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档