会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
光彩照人
每一次挫折都是一次蜕变,挫折越大,蜕变越彻底!
博客园
首页
新随笔
联系
订阅
管理
2018年12月13日
Attention is all you need 论文详解(转)
摘要: 一、背景 自从Attention机制在提出之后,加入Attention的Seq2Seq模型在各个任务上都有了提升,所以现在的seq2seq模型指的都是结合rnn和attention的模型。传统的基于RNN的Seq2Seq模型难以处理长序列的句子,无法实现并行,并且面临对齐的问题。 所以之后这类模型的
阅读全文
posted @ 2018-12-13 15:01 光彩照人
阅读(3908)
评论(0)
推荐(0)
公告