会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
山竹果 BLOG
see more
首页
新随笔
联系
订阅
管理
2020年6月28日
预训练模型 | MASS:更适合seq2seq类任务
摘要: 参考: 超越BERT、GPT,微软提出通用预训练模型MASS 微软在ICML 2019提出全新的通用预训练方法MASS,在序列到序列的自然语言生成任务中全面超越BERT和GPT。在微软参加的WMT19机器翻译比赛中,MASS帮助中-英、英-立陶宛两个语言对取得了第一名的成绩。 MASS: Maske
阅读全文
posted @ 2020-06-28 16:44 山竹小果
阅读(1251)
评论(0)
推荐(0)
公告