会员
周边
新闻
博问
融资
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
温良
技术自留地
格物致知,天道酬勤
写文章
博客园
我的首页
写博客
私信我
RSS订阅
闪存
我关注
后台管理
GUI配置
博文列表
网摘夹
文件
相册
温良Miner
温一壶月光下酒
博客园
首页
新随笔
联系
订阅
管理
2021年8月27日
【文本摘要项目】7-性能提升之基于Transformer的PGN模型
摘要: 背景 前一篇文章中,采用了在当前比较主流的Transformer模型,Transformer模型本质来看是基于Encoder-Decoder框架,其解码方式本质上和seq2seq模型的解码方式基本相同。seq2seq的重要缺陷之一在于其不具备生成能力,而PGN模型具备着良好的生成能力。因此,本文拟结
阅读全文
posted @ 2021-08-27 21:54 温良Miner
阅读(459)
评论(0)
推荐(1)
编辑
分享到: