随笔分类 -  RL

强化学习note2——value iteration和policy iteration的区别,MC和TD的区别
摘要:value iteration和policy iteration的区别 value iteration: ①多次迭代Bellman最优等式和Bellman等式,等价值函数收敛后,②再用价值函数带入贝尔曼等式得到动作价值函数,策略就从最大的动作价值函数选取。(策略没有参与) policyiterati 阅读全文
posted @ 2021-04-29 11:14 A2he 阅读(608) 评论(0) 推荐(0)
强化学习note1——马尔科夫奖励过程MRP和马尔科夫决策过程MDP各个函数的定义与区别
摘要:马尔科夫奖励过程MRP 状态转移函数:\(P\left(S_{t+1}=s^{\prime} \mid s_{t}=s\right)\) 奖励函数:\(R\left(s_{t}=s\right)=\mathbb{E}\left[r_{t} \mid s_{t}=s\right]\) 回报:\(\ma 阅读全文
posted @ 2021-04-27 21:20 A2he 阅读(424) 评论(0) 推荐(0)