会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
滑天下之大j
博客园
首页
新随笔
联系
订阅
管理
2020年8月4日
NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE (Seq2Seq with Attention)论文阅读
摘要: 1. Introduction 这篇论文首次提出了NLP中的Attention机制,该机制被提出的目的是为了解决Encoder-Decoder神经机器翻译模型中长句子的翻译效果差的问题。作者希望通过Attention机制将输入和输出句子进行“对齐”,但是不同语言的语法结构相差很大,并没有很好的严格对
阅读全文
posted @ 2020-08-04 20:07 滑天下之大j
阅读(346)
评论(0)
推荐(0)
公告