会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Loading
JinZhuan's Blog
博客园
首页
新随笔
联系
订阅
管理
随笔分类 -
自然语言处理
自然语言处理
Seq2Seq模型的注意力机制
摘要:概述 Seq2Seq模型,顾名思义就是把一种对象序列转换为另一种对象序列的模型,模型的工作流程如下所示: 当我们把一个抽象的Seq2Seq模型转化为一个具体的任务,以NMT任务为例,输入的是一系列单词,输出的同样是一系列单词 深入 Looking under the hood,我们可以发现Seq2S
阅读全文
posted @
2020-11-19 20:37
金砖丶
阅读(601)
评论(0)
推荐(1)
公告