会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
滑天下之大j
博客园
首页
新随笔
联系
订阅
管理
2020年8月25日
Transformer 学习笔记
摘要: 1. Introduction Transformer 是2017年论文 “Attention Is All You Need” 中提出的 seq2seq 模型,该模型最大的贡献是舍弃了过去 seq2seq 模型中大量使用的RNN(包括LSTM和GRU),而是完全基于 attention 机制,使
阅读全文
posted @ 2020-08-25 11:42 滑天下之大j
阅读(490)
评论(0)
推荐(0)
公告