从Markov Process到Markov Decision Process

Recall: Markov Property

information state: sufficient statistic of history
State s t s_t st is Markov if and only if:
p ( s t + 1 ∣ s t , a t ) = p ( s t + 1 ∣ h t , a t ) p(s_{t+1}|s_t,a_t)=p(s_{t+1}|h_t,a_t) p(st+1st,at)=p(st+1ht,at)
Future is independent of past given present

Markov Process or Markov Chain

无记忆性随机过程

  • 具有马尔科夫性质的随机状态的序列

马尔科夫过程(Markov Process)的定义:

  • S是一个(有限)的状态集(s ∈ S \in S S)
  • P是动态/变迁模型,它指定了 p ( s t + 1 = s ′ ∣ s t = s ) p(s_{t+1}=s'|s_t=s) p(st+1=sst=s)

注意:没有奖励(reward),也没有动作(actions)

如果状态数(N)是有限的,可以把P表示成一个矩阵:
在这里插入图片描述

Markov Reward Process (MRP)

马尔科夫奖励过程 = 马尔科夫过程 + 奖励

马尔科夫奖励过程(MRP)的定义:

  • S是一个状态的有限集(s ∈ \in S)
  • P是动态/变迁模型,它指定了 P ( s t + 1 = s ′ ∣ s t = s ) P(s_{t+1}=s'|s_t=s) P(st+1=sst=s)
  • R是一个奖励函数 R ( s t = s ) = E [ r t ∣ s t = s ] R(s_t=s)=\mathbb{E}[r_t|s_t=s] R(st=s)=E[rtst=s]
  • 折扣因子 γ ∈ [ 0 , 1 ] \gamma \in[0,1] γ[0,1]

注意:没有动作

如果状态数(N)有限,R可以被表示成一个向量。

Return & Value Function

窗口(horizon)的定义:

  • 每一轮(episode)的时间步数目
  • 可以是有限的
  • 也被称作有限马尔科夫奖励过程

返回(return)的定义:

  • 从t开始长达整个窗口的打折奖励总和:
    G t = r t + γ r t + 1 + γ 2 r t + 2 + γ 3 r t + 3 + . . . G_t=r_t+\gamma r_{t+1}+\gamma^2r_{t+2}+\gamma^3r_{t+3}+... Gt=rt+γrt+1+γ2rt+2+γ3rt+3+...

状态奖励方程(State Value Function foe a MRP)的定义:

  • 从状态s开始的返回的期望
    V ( s ) = E [ G t ∣ s t = s ] = E [ r t + γ r t + 1 + γ 2 r t + 2 + γ 3 r t + 3 + . . . ∣ s t = s ] V(s) = \mathbb{E}[G_t|s_t=s]=\mathbb{E}[r_t+\gamma r_{t+1}+\gamma^2r_{t+2}+\gamma^3r_{t+3}+...|s_t=s] V(s)=E[Gtst=s]=E[rt+γrt+1+γ2rt+2+γ3rt+3+...st=s]

如果过程是确定的,那么返回和奖励是相等的;大部分情况下过程是随机的,它们会是不同的。

Discount Factor

折扣因子一方面是由于被启发创造的,另一方面也是为了数学上的方便。

  • 数学上的方便(避免无限的返回(函数)和价值(函数))
  • 人类通常是以折扣因子小于1的方式行动的
  • γ = 0 \gamma=0 γ=0仅关心即时奖励
  • γ = 1 \gamma=1 γ=1未来奖励将等于即时奖励
  • 如果一轮(episode)的长度一直是有限的,可以使用 γ = 1 \gamma=1 γ=1

Computing the Value of a Markov Reward Process

  • 可以通过仿真(simulation)来估计
    实验平均接近真实期望值的准确度大致在 1 n \frac{1}{\sqrt{n}} n 1,n代表仿真次数。
  • 对返回取平均
  • 专注不等式(Concentration inequalities)限定专注于期望值的速度
  • 不需要对马尔科夫结构做出假设

但是上述过程没有利用任何world是马尔科夫的这个事实。为了得到更好的估计有额外的结构。

  • 马尔科夫性质产生额外的结构。
    (the future is independent of past given present)
  • MRP的价值函数满足
    在这里插入图片描述
    矩阵形式
    在这里插入图片描述

然后就可以以解析方式求解:

V = R + γ P V V=R+\gamma PV V=R+γPV
V − γ P V = R V-\gamma PV = R VγPV=R
( I − γ P ) V = R (I - \gamma P) V = R (IγP)V=R
V = ( I − γ P ) − 1 R V = (I -\gamma P)^{-1} R V=(IγP)1R

直接求解的算法复杂度是 O ( n 3 ) O(n^3) O(n3)

矩阵P必须是定义良好即能求逆的。在以上过程中,我们假定是固定的horizon,价值函数是固定的,所以状态的下一个状态可以指向自己,self-loop是允许存在的。

一定可以求逆吗?

因为P是马尔科夫矩阵(随机矩阵),那么它的特征值将总是小于等于1,如果折扣因子小于1,那么 I − γ P I-\gamma P IγP总是可逆的(证明略,感兴趣的朋友可以去查一下,博主数学不是很好。)。

Iterative Algorithm for Computing Value of a MRP

另一种求解方法是动态规划:

Initializa V 0 ( s ) = 0 V_0(s) = 0 V0(s)=0 for all s

For k = 1 until convergence
	For all s in S

V k ( s ) = R ( s ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s ) V k − 1 ( s ′ ) V_k(s) = R(s) + \gamma \sum_{s^{'} \in S}P(s^{'}|s)V_{k-1}(s^{'}) Vk(s)=R(s)+γsSP(ss)Vk1(s)

计算复杂度:
O ( ∣ s ∣ 2 ) O(|s|^2) O(s2) for each iteration (|S| = N)

收敛的条件通常使用范数来衡量,即
∣ V k − V k − 1 ∣ < ϵ |V_k - V_{k-1}| < \epsilon VkVk1<ϵ

这种计算方式的优势在于每次迭代平方复杂度,并且还有一些稍后会提及的引入actions之后的增益。

总结起来,计算MRP的价值有三种方法:

  • 模拟仿真(Simulation)
  • 解析求解(Analytic solve, requires us a step, a finite set of states)
  • 动态规划(DP)

Markov Decision Proces(MDP)

MDP = MRP + actions.

MDP的定义,MDP是一个五元组(quintuple)(S,A,P,R, γ \gamma γ):

  • S 是一个有限的马尔科夫状态集 s ∈ S s \in S sS
  • A 是一个有限的动作集 a ∈ A a \in A aA
  • P 是针对每一个动作的动态/迁移模型,它指定了 P ( s t + 1 = s ′ ∣ s t = s , a t = a ) P(s_{t+1}=s' | s_t = s, a_t = a) P(st+1=sst=s,at=a)
  • R是一个奖励函数(回报函数)
    R ( s t = s , a t = a ) = E [ r t ∣ s t − s , a t = a ] R(s_t = s, a_t = a) = \mathbb{E}[r_t|s_t - s, a_t = a] R(st=s,at=a)=E[rtsts,at=a]
  • 折扣因子 γ ∈ [ 0 , 1 ] \gamma \in [0, 1] γ[0,1]

MDP Policies

  • 策略(Policy)指定了在每一个状态采取什么动作
    • 可以是确定性的也可以是随机的
  • 更一般性,把策略考虑成一种条件分布
    -给定一个状态,指定一个动作上的分布
  • Policy: π ( a ∣ s ) = P ( a t = a ∣ s t = s ) \pi(a|s) = P(a_t = a | s_t = s) π(as)=P(at=ast=s)

MDP + Policy

MDP + Policy可以指定一个Markov Reward Process,因为Policy里指定了每个状态的动作,MDP就坍缩成了MRP。

更确切的讲,它们指定的是 M R P ( S , R π , P π , γ ) MRP(S, R^\pi, P^\pi, \gamma) MRP(S,Rπ,Pπ,γ):
R π = ∑ a ∈ A π ( a ∣ s ) R ( s , a ) R^\pi=\sum_{a \in A}\pi(a|s)R(s,a) Rπ=aAπ(as)R(s,a)
P π ( s ′ ∣ s ) = ∑ a ∈ A π ( a ∣ s ) P ( s ′ ∣ s , a ) P^\pi(s'|s) = \sum_{a \in A}\pi(a|s)P(s'|s,a) Pπ(ss)=aAπ(as)P(ss,a)

这隐含着,只要你有确定的策略,我们可以使用前述的所有用来计算MRP的价值的相同方法,通过使用定义一个 R π R^\pi Rπ P π P^\pi Pπ,来计算MDP的一个策略的价值。

MDP Policy Evaluation, Iterative Algorithm

Initialize V 0 ( s ) = 0 V_0(s) = 0 V0(s)=0 for all s

For k = 1 until convergence
	For all s in S

V k π ( s ) = r ( s , π ( s ) ) + γ ∑ s ′ ∈ S p ( s ′ ∣ s , π ( s ) ) V k − 1 π ( s ′ ) V_k^\pi(s) = r(s,\pi(s)) + \gamma\sum_{s' \in S}p(s'|s,\pi(s))V_{k-1}^\pi(s') Vkπ(s)=r(s,π(s))+γsSp(ss,π(s))Vk1π(s)

对于一个特定的策略来说,这是一个Bellman backup。

在RL文献中,上面等式的右边被称作"Bellman backup"。状态或状态 - 动作对的Bellman backup是Bellman方程的右侧:即时奖励加下一个值,这是一个迭代的过程,因此叫backup。

仔细对比一下,跟前面所述MRT计算价值是一样的,只不过因为有固定的策略,所以我们使用策略来索引奖励。即为了学习一个特定策略的价值,我们通过总是采取策略所指定的动作来初始化价值函数。

练习 计算一步迭代

在这里插入图片描述
V k + 1 ( s 6 ) = r ( s 6 ) + γ ∗ ( 0.5 ∗ 0 + 0.5 ∗ 10 ) V_{k+1}(s_6)=r(s_6)+\gamma*(0.5*0+0.5*10) Vk+1(s6)=r(s6)+γ(0.50+0.510)
V k + 1 ( s 6 ) = 0.5 ∗ ( 0.5 ∗ 10 ) = 2.5 V_{k+1}(s_6)=0.5*(0.5*10)=2.5 Vk+1(s6)=0.5(0.510)=2.5

这个真的很简单,单纯的代公式,只要前面所述内容你都记住了,就直接能理解。

posted @ 2019-09-28 20:15  从流域到海域  阅读(66)  评论(0编辑  收藏  举报