09 2020 档案

Action and learning shape the activity of neuronal circuits in the visual cortex
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Current Opinion in Neurobiology, (2018) Abstract 非感觉变量强烈影响成年小鼠初级视觉皮层的神经元活动。对视觉刺激的神经元反应受行为状态(如激发和运动活动)调节,并受经验影响。这种动态过程导致 阅读全文

posted @ 2020-09-29 10:57 穷酸秀才大草包 阅读(346) 评论(0) 推荐(0)

大脑中的记忆机制
摘要:参考资料: 我们的大脑到底是如何记忆东西的 关于大脑工作原理最详细的图解 人的大脑是如何记忆东西的?知识是怎么储存在大脑里的? 记忆的本质是什么? 记忆的分类以及理论模型 MIT诺奖大牛2万字雄文:记忆的本质 (qq.com) 大脑的记忆可以分为六种类型,层次由低到高分别为: 程序性记忆: 一些程序 阅读全文

posted @ 2020-09-28 16:37 穷酸秀才大草包 阅读(3183) 评论(0) 推荐(0)

A Simple Neural Attentive Meta-Learner
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! 参考链接:https://blog.csdn.net/liuglen/article/details/84770069 ICLR 2018 时序卷积:https://blog.csdn.net/weixin_38498942/articl 阅读全文

posted @ 2020-09-20 20:36 穷酸秀才大草包 阅读(1609) 评论(0) 推荐(0)

(元)强化学习开源代码调研
摘要:元强化学习的开源代码整理,以及相关的元学习以及强化学习的开源代码 阅读全文

posted @ 2020-09-19 23:50 穷酸秀才大草包 阅读(5496) 评论(6) 推荐(3)

A Genetically Defined Compartmentalized Striatal Direct Pathway for Negative Reinforcement
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Cell 2020 Summary 背侧纹状体内的纹状小体区室与强化学习和动机调节有关,但是纹状体神经元如何促进这些功能尚不清楚。在这里,我们显示了遗传确认的纹状体群体,该群体表达茶衫族锌指1 (Tshz1)并属于直接途径,驱动负强化,对 阅读全文

posted @ 2020-09-18 18:56 穷酸秀才大草包 阅读(335) 评论(0) 推荐(0)

TensorBoard的使用
摘要:Tensorboard: 1、将tensorboard的event.out.tfevents.*文件放入log文件夹中; 2、进入log的前一级目录; 3、执行以下命令: tensorboard --logdir=./log 4、在浏览器输入网址:http://localhost:6006,即可查看 阅读全文

posted @ 2020-09-17 14:26 穷酸秀才大草包 阅读(304) 评论(0) 推荐(0)

Linux(Ubuntu)安装Mujoco、mujoco-py的详细步骤、安装教程
摘要:参考链接:https://blog.csdn.net/Youtian_/article/details/103841453,【Linux】Ubun16.04服务器配置Mujoco的各种错误解决方案 官方链接:openai/mujoco-py: MuJoCo is a physics engine f 阅读全文

posted @ 2020-09-17 11:14 穷酸秀才大草包 阅读(4186) 评论(0) 推荐(0)

元强化学习简介
摘要:元学习/元强化学习简介,对当下研究的分类,目标,概述以及开源代码的整理 阅读全文

posted @ 2020-09-14 11:00 穷酸秀才大草包 阅读(15108) 评论(0) 推荐(5)

Model-Free Episodic Control
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! CoRR, (2016) Abstract 最先进的深度强化学习算法需要数百万次交互才能达到人类水平的性能。另一方面,人类在首次发现时就可以非常迅速地利用环境中高度有益的细微差别。在大脑中,这种快速学习被认为取决于海马体及其对回合式记忆的 阅读全文

posted @ 2020-09-13 17:04 穷酸秀才大草包 阅读(487) 评论(0) 推荐(0)

Efficient Off-Policy Meta-Reinforcement Learning via Probabilistic Context Variables
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! arXiv: Learning, (2019) Abstract 深度RL算法需要大量经验才能学习单个任务。原则上,元强化学习(meta-RL)算法使智能体能够从少量经验中学习新技能,但一些主要挑战阻碍了它们的实用性。当前的方法严重依赖于 阅读全文

posted @ 2020-09-08 23:40 穷酸秀才大草包 阅读(1455) 评论(0) 推荐(0)

On First-Order Meta-Learning Algorithms
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! arXiv: Learning, (2018) Abstract 本文考虑了存在任务分布的元学习问题,并且我们希望获得一个表现良好的智能体(即快速学习),该智能体在从该分布中采样到以前没见过的任务时表现良好。我们分析了一组算法,用于学习可 阅读全文

posted @ 2020-09-08 23:29 穷酸秀才大草包 阅读(468) 评论(0) 推荐(0)

Meta-Q-Learning
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! ICLR 2020 ABSTRACT 本文介绍了Meta-Q-Learning (MQL),这是一种用于元强化学习(meta-RL)的新的异策算法。MQL基于三个简单的想法。首先,我们表明,如果可以访问表示过去轨迹的上下文变量,则Q学习将 阅读全文

posted @ 2020-09-08 23:04 穷酸秀才大草包 阅读(847) 评论(0) 推荐(0)

Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! ICML 2017 Abstract 我们提出了一种与模型无关的元学习算法,从某种意义上说,该算法可与通过梯度下降训练的任何模型兼容,并适用于各种不同的学习问题,包括分类,回归和RL。元学习的目标是针对各种学习任务训练模型,以便仅使用少量 阅读全文

posted @ 2020-09-08 17:27 穷酸秀才大草包 阅读(965) 评论(0) 推荐(0)

Meta Learning via Learned Loss
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! CoRR, (2019) Abstract 通常,从有限的一组选项中试探性地选择损失函数,正则化机制和训练参数模型的其他重要方面。在本文中,我们将朝着使该过程自动化的第一步迈进,以期产生能够更快且更强大的训练模型。具体而言,我们提出了一种 阅读全文

posted @ 2020-09-07 15:27 穷酸秀才大草包 阅读(822) 评论(0) 推荐(0)

Evolved Policy Gradients
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! NeurIPS, (2018) Abstract 我们提出了一种元学习方法,用于学习基于梯度的RL算法。这个想法是要逐步形成一种可微的损失函数,这样智能体就可以通过优化其策略以最大程度地减少这种损失,获得较高的奖励。损失是通过智能体经验的 阅读全文

posted @ 2020-09-07 14:54 穷酸秀才大草包 阅读(424) 评论(0) 推荐(0)

Improving Generalization in Meta Reinforcement Learning using Learned Objectives
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Published as a conference paper at ICLR 2020 论文作者博客:http://louiskirsch.com/metagenrl ABSTRACT 生物进化将许多学习者的经验提炼为人类的通用学习算法 阅读全文

posted @ 2020-09-06 23:01 穷酸秀才大草包 阅读(843) 评论(0) 推荐(0)

RL^2: Fast Reinforcement Learning via Slow Reinforcement Learning
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! ICLR 2017 ABSTRACT 深度RL已经成功地自动学习了复杂的行为。但是,学习过程需要大量的试验。相比之下,动物可以通过几次试验而学习新的任务,这得益于它们对世界的了解。本文力图弥合这一差距。与其设计一种"快速"的RL算法,不如 阅读全文

posted @ 2020-09-06 16:32 穷酸秀才大草包 阅读(1712) 评论(0) 推荐(0)

How to Construct Deep Recurrent Neural Networks
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! ICLR, (2014) Abstract 在本文中,我们探索了将RNN扩展到深度RNN的不同方法。我们首先争论说,RNN中的深度概念并不像前馈神经网络中的概念那么清晰。通过仔细分析和理解RNN的结构,我们发现RNN的三个方面可能会变得更 阅读全文

posted @ 2020-09-04 17:41 穷酸秀才大草包 阅读(487) 评论(0) 推荐(0)

Learning to Navigate in Complex Environments
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! ICLR 2017 ABSTRACT 在具有动态元素的复杂环境中学习导航是开发AI智能体的重要里程碑。在这项工作中,我们将导航问题表述为RL问题,并表明通过依靠利用多模式感官输入的额外辅助任务,可以显著提高数据效率和任务性能。特别是,我们 阅读全文

posted @ 2020-09-04 15:44 穷酸秀才大草包 阅读(404) 评论(0) 推荐(0)

Meta Networks
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! ICML, (2017) Abstract 神经网络已成功应用于带有大量标记数据的应用中。然而,在训练数据较少的情况下对新概念进行快速概括,同时保留先前学到的性能的任务仍然对神经网络模型提出了重大挑战。在这项工作中,我们介绍了一种新颖的元 阅读全文

posted @ 2020-09-03 23:40 穷酸秀才大草包 阅读(1565) 评论(0) 推荐(0)

导航