会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
雨后观山色
博客园
首页
新随笔
联系
订阅
管理
2020年5月2日
NLP学习笔记16---transformer、bert
摘要: 1.Transformer Google于2017年6月发布在arxiv上的一篇文章《Attention is all you need》,提出解决sequence to sequence问题的transformer模型,用全attention的结构代替了lstm,抛弃了之前传统的encoder-d
阅读全文
posted @ 2020-05-02 11:16 雨后观山色
阅读(1177)
评论(0)
推荐(0)
公告