摘要: 7-融合学习与规划(Integrating Learning and Planning) 1.导论 基于模型的强化学习(Model-Based Reinforcement Learning) 在上一个课程中,是从记录序列中直接学习策略的 在过往的课程中,是从记录序列中直接学习价值函数的 而本次课程, 阅读全文
posted @ 2021-01-17 20:13 Uzuki 阅读(507) 评论(0) 推荐(0) 编辑
摘要: 6-策略梯度方法(Policy Gradient Method) 策略梯度概论(Introduction) 基于策略(Policy-Based) 的强化学习 对于上一节课(价值函数拟合)中采用参数$\theta$来估计价值和动作-价值函数 \[ \begin{align} V_\theta(S) & 阅读全文
posted @ 2021-01-17 20:10 Uzuki 阅读(797) 评论(0) 推荐(0) 编辑
摘要: 价值函数拟合(Value Function Approximation) 导论(Introduction) 目前的价值函数都是基于打表法(lookup table)进行穷举 对于所有状态$s$都有一个实体$V(s)$去表示 或者对于每个状态-价值函数对$s,a$都有一个实体$Q(s,a)$去表示 对 阅读全文
posted @ 2021-01-17 19:55 Uzuki 阅读(473) 评论(0) 推荐(0) 编辑
摘要: 无模型控制(Model-Free Control) 无模型预测概论 上一节课: 无模型预测 用于估计一个未知马尔科夫决策过程的价值函数 这节课 无模型控制 最优化一个未知马尔科夫决策过程的价值函数 一般在以下两种情况采用无模型预测 马尔科夫决策过程是未知的,仅能通过采用得到记录 马尔科夫决策过程是已 阅读全文
posted @ 2021-01-17 19:47 Uzuki 阅读(324) 评论(0) 推荐(0) 编辑
摘要: 上一节课《通过DP求解》可以解决一个已知的马尔科夫决策过程 本节课 实践无模型预测 解决或者估计一个未知马尔科夫决策过程的价值函数 下一节课 实现无模型决策(Model-free control) 最优化一个马尔科夫决策过程的价值函数 阅读全文
posted @ 2021-01-17 19:36 Uzuki 阅读(688) 评论(0) 推荐(0) 编辑
摘要: 动态(Dynamic):序列性又或是时序性的问题部分 规划(Programming):最优化一个程序(Program),i.e 一种策略 线性规划(Linear Programming) 显然马尔科夫决策过程就符合动态规划的顺序 阅读全文
posted @ 2021-01-17 18:09 Uzuki 阅读(493) 评论(0) 推荐(0) 编辑
摘要: 最近在搞强化学习(Reinforcement Learning),打算把之前写的笔记整理一下 本文基于大卫 希尔维(David Silver)教授的强化学习概论课程,视频中所采用的样例学生马尔科夫链(Student MDPs)有时间再补上去 出处:[https://www.youtube.com/watch?v=lfHX2hHRMVQ&list=PLqYmG7hTraZDM-OYHWgPebj2MfCFzFObQ&index=2]() 阅读全文
posted @ 2020-09-26 10:04 Uzuki 阅读(637) 评论(0) 推荐(1) 编辑
摘要: 目录 "快速幂" "快速幂取模" "矩阵快速幂" "矩阵快速幂取模" "HDU1005练习" 快速幂 ​ 幂运算:$x ^ n$ ​ 根据其一般定义我们可以简单实现其非负整数情况下的函数 定义法: ​ 不难看出此时算法的时间复杂度是$O(n)$,一旦n取较大数值,计算时间就会大大增加,极其容易出现超 阅读全文
posted @ 2019-12-04 23:21 Uzuki 阅读(447) 评论(0) 推荐(1) 编辑