摘要: 引言:为什么 Transformer 在 RL 上不 work Transformer 最早发源于自然语言处理领域(NLP),以一个非常惊人的标题 “Attention is All You Need” 催生了无数后续工作,而 Transformer 最近的一些变体已经在 NLP 领域证明了其可以在 阅读全文
posted @ 2022-08-30 21:49 OpenDILab 阅读(616) 评论(0) 推荐(0)