从Markov Process到Markov Decision Process

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

本文链接:https://blog.csdn.net/Solo95/article/details/100160595

Recall: Markov Property

information state: sufficient statistic of history State sts_tst​ is Markov if and only if: p(st+1∣st,at)=p(st+1∣ht,at)p(s_{t+1}|s_t,a_t)=p(s_{t+1}|h_t,a_t)p(st+1​∣st​,at​)=p(st+1​∣ht​,at​) Future is independent of past given present

Markov Process or Markov Chain

无记忆性随机过程

  • 具有马尔科夫性质的随机状态的序列

马尔科夫过程(Markov Process)的定义:

  • S是一个(有限)的状态集(s ∈S\in S∈S)
  • P是动态/变迁模型,它指定了p(st+1=s′∣st=s)p(s_{t+1}=s'|s_t=s)p(st+1​=s′∣st​=s)

注意:没有奖励(reward),也没有动作(actions)

如果状态数(N)是有限的,可以把P表示成一个矩阵:

Markov Reward Process (MRP)

马尔科夫奖励过程 = 马尔科夫过程 + 奖励

马尔科夫奖励过程(MRP)的定义:

  • S是一个状态的有限集(s ∈\in∈ S)
  • P是动态/变迁模型,它指定了P(st+1=s′∣st=s)P(s_{t+1}=s'|s_t=s)P(st+1​=s′∣st​=s)
  • R是一个奖励函数R(st=s)=E[rt∣st=s]R(s_t=s)=\mathbb{E}[r_t|s_t=s]R(st​=s)=E[rt​∣st​=s]
  • 折扣因子γ∈[0,1]\gamma \in[0,1]γ∈[0,1]

注意:没有动作

如果状态数(N)有限,R可以被表示成一个向量。

Return & Value Function

窗口(horizon)的定义:

  • 每一轮(episode)的时间步数目
  • 可以是有限的
  • 也被称作有限马尔科夫奖励过程

返回(return)的定义:

  • 从t开始长达整个窗口的打折奖励总和: Gt=rt+γrt+1+γ2rt+2+γ3rt+3+...G_t=r_t+\gamma r_{t+1}+\gamma^2r_{t+2}+\gamma^3r_{t+3}+...Gt​=rt​+γrt+1​+γ2rt+2​+γ3rt+3​+...

状态奖励方程(State Value Function foe a MRP)的定义:

  • 从状态s开始的返回的期望 V(s)=E[Gt∣st=s]=E[rt+γrt+1+γ2rt+2+γ3rt+3+...∣st=s]V(s) = \mathbb{E}[G_t|s_t=s]=\mathbb{E}[r_t+\gamma r_{t+1}+\gamma^2r_{t+2}+\gamma^3r_{t+3}+...|s_t=s]V(s)=E[Gt​∣st​=s]=E[rt​+γrt+1​+γ2rt+2​+γ3rt+3​+...∣st​=s]

如果过程是确定的,那么返回和奖励是相等的;大部分情况下过程是随机的,它们会是不同的。

Discount Factor

折扣因子一方面是由于被启发创造的,另一方面也是为了数学上的方便。

  • 数学上的方便(避免无限的返回(函数)和价值(函数))
  • 人类通常是以折扣因子小于1的方式行动的
  • γ=0\gamma=0γ=0仅关心即时奖励
  • γ=1\gamma=1γ=1未来奖励将等于即时奖励
  • 如果一轮(episode)的长度一直是有限的,可以使用γ=1\gamma=1γ=1

Computing the Value of a Markov Reward Process

  • 可以通过仿真(simulation)来估计 实验平均接近真实期望值的准确度大致在1n\frac{1}{\sqrt{n}}n​1​,n代表仿真次数。
  • 对返回取平均
  • 专注不等式(Concentration inequalities)限定专注于期望值的速度
  • 不需要对马尔科夫结构做出假设

但是上述过程没有利用任何world是马尔科夫的这个事实。为了得到更好的估计有额外的结构。

  • 马尔科夫性质产生额外的结构。 (the future is independent of past given present)
  • MRP的价值函数满足

矩阵形式

然后就可以以解析方式求解:

V=R+γPVV=R+\gamma PVV=R+γPV V−γPV=RV-\gamma PV = RV−γPV=R (I−γP)V=R(I - \gamma P) V = R(I−γP)V=R V=(I−γP)−1RV = (I -\gamma P)^{-1} RV=(I−γP)−1R

直接求解的算法复杂度是O(n3)O(n^3)O(n3)

矩阵P必须是定义良好即能求逆的。在以上过程中,我们假定是固定的horizon,价值函数是固定的,所以状态的下一个状态可以指向自己,self-loop是允许存在的。

一定可以求逆吗?

因为P是马尔科夫矩阵(随机矩阵),那么它的特征值将总是小于等于1,如果折扣因子小于1,那么I−γPI-\gamma PI−γP总是可逆的(证明略,感兴趣的朋友可以去查一下,博主数学不是很好。)。

Iterative Algorithm for Computing Value of a MRP

另一种求解方法是动态规划:

Initializa V0(s)=0V_0(s) = 0V0​(s)=0 for all s

For k = 1 until convergence
	For all s in S

Vk(s)=R(s)+γ∑s′∈SP(s′∣s)Vk−1(s′)V_k(s) = R(s) + \gamma \sum_{s^{'} \in S}P(s^{'}|s)V_{k-1}(s^{'})Vk​(s)=R(s)+γs′∈S∑​P(s′∣s)Vk−1​(s′)

计算复杂度: O(∣s∣2)O(|s|^2)O(∣s∣2) for each iteration (|S| = N)

收敛的条件通常使用范数来衡量,即 ∣Vk−Vk−1∣<ϵ|V_k - V_{k-1}| < \epsilon∣Vk​−Vk−1​∣<ϵ

这种计算方式的优势在于每次迭代平方复杂度,并且还有一些稍后会提及的引入actions之后的增益。

总结起来,计算MRP的价值有三种方法:

  • 模拟仿真(Simulation)
  • 解析求解(Analytic solve, requires us a step, a finite set of states)
  • 动态规划(DP)

Markov Decision Proces(MDP)

MDP = MRP + actions.

MDP的定义,MDP是一个五元组(quintuple)(S,A,P,R,γ\gammaγ):

  • S 是一个有限的马尔科夫状态集s∈Ss \in Ss∈S
  • A 是一个有限的动作集a∈Aa \in Aa∈A
  • P 是针对每一个动作的动态/迁移模型,它指定了P(st+1=s′∣st=s,at=a)P(s_{t+1}=s' | s_t = s, a_t = a)P(st+1​=s′∣st​=s,at​=a)
  • R是一个奖励函数(回报函数) R(st=s,at=a)=E[rt∣st−s,at=a]R(s_t = s, a_t = a) = \mathbb{E}[r_t|s_t - s, a_t = a]R(st​=s,at​=a)=E[rt​∣st​−s,at​=a]
  • 折扣因子 γ∈[0,1]\gamma \in [0, 1]γ∈[0,1]

MDP Policies

  • 策略(Policy)指定了在每一个状态采取什么动作
    • 可以是确定性的也可以是随机的
  • 更一般性,把策略考虑成一种条件分布 -给定一个状态,指定一个动作上的分布
  • Policy:π(a∣s)=P(at=a∣st=s)\pi(a|s) = P(a_t = a | s_t = s)π(a∣s)=P(at​=a∣st​=s)

MDP + Policy

MDP + Policy可以指定一个Markov Reward Process,因为Policy里指定了每个状态的动作,MDP就坍缩成了MRP。

更确切的讲,它们指定的是MRP(S,Rπ,Pπ,γ)MRP(S, R^\pi, P^\pi, \gamma)MRP(S,Rπ,Pπ,γ): Rπ=∑a∈Aπ(a∣s)R(s,a)R^\pi=\sum_{a \in A}\pi(a|s)R(s,a)Rπ=∑a∈A​π(a∣s)R(s,a) Pπ(s′∣s)=∑a∈Aπ(a∣s)P(s′∣s,a)P^\pi(s'|s) = \sum_{a \in A}\pi(a|s)P(s'|s,a)Pπ(s′∣s)=∑a∈A​π(a∣s)P(s′∣s,a)

这隐含着,只要你有确定的策略,我们可以使用前述的所有用来计算MRP的价值的相同方法,通过使用定义一个RπR^\piRπ和PπP^\piPπ,来计算MDP的一个策略的价值。

MDP Policy Evaluation, Iterative Algorithm

Initialize V0(s)=0V_0(s) = 0V0​(s)=0 for all s

For k = 1 until convergence
	For all s in S

Vkπ(s)=r(s,π(s))+γ∑s′∈Sp(s′∣s,π(s))Vk−1π(s′)V_k^\pi(s) = r(s,\pi(s)) + \gamma\sum_{s' \in S}p(s'|s,\pi(s))V_{k-1}^\pi(s')Vkπ​(s)=r(s,π(s))+γ∑s′∈S​p(s′∣s,π(s))Vk−1π​(s′)

对于一个特定的策略来说,这是一个Bellman backup。

在RL文献中,上面等式的右边被称作"Bellman backup"。状态或状态 - 动作对的Bellman backup是Bellman方程的右侧:即时奖励加下一个值,这是一个迭代的过程,因此叫backup。

仔细对比一下,跟前面所述MRT计算价值是一样的,只不过因为有固定的策略,所以我们使用策略来索引奖励。即为了学习一个特定策略的价值,我们通过总是采取策略所指定的动作来初始化价值函数。

练习 计算一步迭代

Vk+1(s6)=r(s6)+γ∗(0.5∗0+0.5∗10)V_{k+1}(s_6)=r(s_6)+\gamma*(0.5*0+0.5*10)Vk+1​(s6​)=r(s6​)+γ∗(0.5∗0+0.5∗10) Vk+1(s6)=0.5∗(0.5∗10)=2.5V_{k+1}(s_6)=0.5*(0.5*10)=2.5Vk+1​(s6​)=0.5∗(0.5∗10)=2.5 这个真的很简单,单纯的代公式,只要前面所述内容你都记住了,就直接能理解。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券