会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Geek Song
保持对科技的热情,不断积累自己的技术套装,力求能够快速从0到1构建整个项目,生命因技术而更加精彩!
博客园
首页
新随笔
联系
订阅
管理
2021年10月25日
【自然语言处理】:seq2seq当中的Attention注意力机制
摘要: 一.seq2seq机制 传统的seq2seq机制在语言翻译当中使用了两个RNN,一个是encoder,将语言进行编码,另一个是decoder,将我们的得到的语言编码进行解码,解码的过程当中就可以对我们的语言进行翻译成另外一种语言。其机制如下所示: 当然这种机制了,就会出现一定的问题,比如说我们的一个
阅读全文
posted @ 2021-10-25 22:33 Geeksongs
阅读(261)
评论(0)
推荐(0)
公告
Coded by Geeksongs on Linux
All rights reserved, no one is allowed to pirate or use the document for other purposes.