会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
OpenDILab
博客园
首页
新随笔
联系
订阅
管理
2022年8月30日
Transformer + RL(1):是强化学习魔高一尺,还是 Transformer 道高一丈
摘要: 引言:为什么 Transformer 在 RL 上不 work Transformer 最早发源于自然语言处理领域(NLP),以一个非常惊人的标题 “Attention is All You Need” 催生了无数后续工作,而 Transformer 最近的一些变体已经在 NLP 领域证明了其可以在
阅读全文
posted @ 2022-08-30 21:49 OpenDILab
阅读(616)
评论(0)
推荐(0)
公告