会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
我的锅
stay hungry, stay foolish.
博客园
首页
新随笔
联系
管理
订阅
2019年11月15日
bert系列一:《Attention is all you need》论文解读
摘要: 论文创新点: 多头注意力 transformer模型 Transformer模型 上图为模型结构,左边为encoder,右边为decoder,各有N=6个相同的堆叠。 encoder 先对inputs进行Embedding,再将位置信息编码进去(cancat方式),位置编码如下: 然后经过多头注意力
阅读全文
posted @ 2019-11-15 11:21 我的锅
阅读(1354)
评论(0)
推荐(0)
公告