• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
Vpegasus
E-mail: pegasus.wenjia@foxmail.com
博客园    首页    新随笔    联系   管理    订阅  订阅
强化学习(一): 引入

今天开始连载强化学习,这个是以前看Reinforcement Learning: An Introduction 这本书做的笔记,最近发现Richard S. Sutton 和 Andrew G. Barto还在为本书更新,所以就想着把原来的笔记也更新一下,整理然后放在这里。
因为是笔记形式,所以这里的货是非常的干的。都是把自己认为重要的东西记了下来,当然也许会有太过骨感的意味。 但因为本次的定位不是给从不知道的人看的,而是给那些至少知道这本书的人一起交流的。

今天是引入,所以也就是几个概念。

Introduction

强化学习是学习如何最大化奖励。

强化学习一直需要面对一个问题,即是权衡exploration(开发) 与exploitation(探索)。

强化学习的一大特点是agent与不确定环境的互动。

Elements of Reinforcement Learning

Policy: 是学习agent在任何时刻的行为方式,是一个从当前环境状态到动作空间的映射。策略是强化学习的核心,强化学习可理解为如何做决策从而获得最大奖励,因此,策略即为最重要的部分,策略可以是一个简单的映射函数,也可能是一个‘状态形为’表格。另外,策略也可能是随机的形式,即在某一状态下,只给出每个形为的概率。

Reward: 强化学习的目标。在强化学习中,agent的目标就是最大化它能获得的所有reward。单个reward只是处于某一状态的即时感觉,那长远来看,即agent可能获得的所有reward,用value function来度量。

Value of a state: 是agent从当前状态算起,未来能获得的所有的reward总和。

Model of a environment: 是所有可用于推断环境如何反应的信息。

posted on 2018-08-12 11:11  Vpegasus  阅读(357)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3