会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
youngf
focusing on nlp & llm
博客园
首页
订阅
管理
2020年8月5日
论文阅读 | RoBERTa: A Robustly Optimized BERT Pretraining Approach
摘要: RoBERTa: A Robustly Optimized BERT Pretraining Approach. Yinhan Liu, Myle Ott, Naman Goyal, et al. 2019 BERT提出之后,有很多后续工作XLNet、ALICE、XLM、MT-DNN相继被提出,成绩
阅读全文
posted @ 2020-08-05 00:33 YoungF
阅读(745)
评论(0)
推荐(0)
公告