会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
車輪の唄
博客园
首页
新随笔
联系
订阅
管理
2019年7月22日
从Seq2Seq到Attention
摘要: Seq2Seq模型是RNN最重要的一个变种:N vs M(输入与输出序列长度不同)。 这种结构又叫Encoder-Decoder模型。 原始的N vs N RNN要求序列等长,然而我们遇到的大部分问题序列都是不等长的,如机器翻译中,源语言和目标语言的句子往往并没有相同的长度。 为此,Encoder-
阅读全文
posted @ 2019-07-22 14:42 車輪の唄
阅读(105)
评论(0)
推荐(0)
公告