会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
烨然2333
博客园
首页
新随笔
联系
管理
订阅
2019年3月26日
论文阅读笔记01-attention-is-all-you-need
摘要: 1结构介绍 是一个seq2seq的任务模型,将输入的时间序列转化为输出的时间序列。 有encoder和decoder两个模块,分别用于编码和解码,结合时是将编码的最后一个输出 当做 解码的第一个模块的输入 encoder模块有两个操作: self attention、feed forward dec
阅读全文
posted @ 2019-03-26 21:45 烨然2333
阅读(387)
评论(0)
推荐(0)
公告