摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Published as a conference paper at ICLR 2018 ABSTRACT 我们介绍了NoisyNet,一种在其权重中添加了参数噪声的深度强化学习智能体,并表明智能体策略的诱导随机性可以用来帮助有效的探索。 阅读全文
posted @ 2023-07-04 19:15 穷酸秀才大草包 阅读(146) 评论(0) 推荐(0) 编辑

摘要: 现代RL中一种非详尽但有用的算法分类法。 图片源自:OpenAI Spinning Up (https://spinningup.openai.com/en/latest/spinningup/rl_intro2.html#citations-below) 强化学习算法: 参考文献:Part 2: 阅读全文
posted @ 2022-02-24 16:44 穷酸秀才大草包 阅读(1045) 评论(0) 推荐(1) 编辑

摘要: 脉冲强化学习(基于脉冲神经网络实现的强化学习算法)总结,分类,综述持续更新最新的文章及进展,欢迎大家补充评论 阅读全文
posted @ 2020-12-30 09:19 穷酸秀才大草包 阅读(3078) 评论(2) 推荐(0) 编辑

摘要: 元强化学习的开源代码整理,以及相关的元学习以及强化学习的开源代码 阅读全文
posted @ 2020-09-19 23:50 穷酸秀才大草包 阅读(4424) 评论(6) 推荐(3) 编辑

2023年12月28日

摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! OpenAI blog, 2019 阅读全文
posted @ 2023-12-28 15:03 穷酸秀才大草包 阅读(15) 评论(0) 推荐(0) 编辑

2023年12月3日

摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Expert Syst. Appl. 203: 117343 (2022) Abstract 深度强化学习在当今应用越来越广泛,尤其是在各种复杂的控制任务中。噪声网络的有效探索是深度强化学习中最重要的问题之一。噪声网络往往会为智能体产生稳 阅读全文
posted @ 2023-12-03 16:04 穷酸秀才大草包 阅读(38) 评论(0) 推荐(0) 编辑

2023年11月19日

摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! NeurIPS 2020 Abstract 我们证明,扩展语言模型大大提高了任务不可知小样本的性能,有时甚至与最先进的微调方法相比具有竞争力。具体来说,我们训练GPT-3,这是一个具有1750亿个参数的自回归语言模型,比以前的任何非稀疏语 阅读全文
posted @ 2023-11-19 16:14 穷酸秀才大草包 阅读(23) 评论(0) 推荐(0) 编辑

2023年10月29日

摘要: 框架: 1、https://github.com/LianjiaTech/BELLE 支持Docker 2、https://github.com/vllm-project/vllm 3、https://github.com/hiyouga/LLaMA-Factory/ 一个训练框架,比起BELLE来 阅读全文
posted @ 2023-10-29 17:39 穷酸秀才大草包 阅读(160) 评论(0) 推荐(0) 编辑

2023年10月1日

摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Published as a conference paper at ICLR 2023 ABSTRACT 在具有连续动作空间的异策深度强化学习中,探索通常通过在动作选择过程中注入动作噪声来实现。基于随机策略的流行算法,如SAC或MPO, 阅读全文
posted @ 2023-10-01 10:58 穷酸秀才大草包 阅读(129) 评论(0) 推荐(0) 编辑

2023年9月25日

摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! NIPS 2016 Abstract 有效的探索仍然是强化学习(RL)的主要挑战。常见的探索抖动策略,如ε-贪婪,不进行时间扩展(或深度)探索;这可能导致数据需求呈指数级增长。然而,在复杂的环境中,大多数用于统计有效RL的算法在计算上是不 阅读全文
posted @ 2023-09-25 11:38 穷酸秀才大草包 阅读(99) 评论(0) 推荐(0) 编辑

2023年9月19日

摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Proceedings of the 36th International Conference on Machine Learning, PMLR 97:5331-5340, 2019 Abstract 深度强化学习算法需要大量的经验来 阅读全文
posted @ 2023-09-19 15:23 穷酸秀才大草包 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! 32nd Conference on Neural Information Processing Systems (NeurIPS 2018), Montréal, Canada. Abstract 探索是强化学习(RL)中的一个基本挑战 阅读全文
posted @ 2023-09-19 14:42 穷酸秀才大草包 阅读(32) 评论(0) 推荐(0) 编辑

2023年9月18日

摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Published as a conference paper at ICLR 2020 ABSTRACT 在未知环境中权衡探索和开发是在学习过程中实现期望回报最大化的关键。贝叶斯最优策略不仅以环境状态为条件,而且以智能体对环境的不确定性 阅读全文
posted @ 2023-09-18 11:01 穷酸秀才大草包 阅读(35) 评论(0) 推荐(0) 编辑

2023年9月14日

摘要: 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! NeurIPS 2022 Abstract 将语言模型做得更大并不能从本质上使它们更好地遵循用户的意图。例如,大型语言模型可能生成不真实、有害或对用户毫无帮助的输出。换句话说,这些模型与其用户不一致。在本文中,我们展示了一种通过对人类反馈 阅读全文
posted @ 2023-09-14 15:06 穷酸秀才大草包 阅读(151) 评论(0) 推荐(0) 编辑

导航