随笔分类 -  自然语言处理(NLP)算法积累

摘要:RoBERTa模型总结 前言 ​ RoBERTa是在论文《RoBERTa: A Robustly Optimized BERT Pretraining Approach》中被提出的。此方法属于BERT的强化版本,也是BERT模型更为精细的调优版本。RoBERTa主要在 三方面 对之前提出的BERT做 阅读全文
posted @ 2020-02-04 19:48 ffjsls 阅读(8878) 评论(1) 推荐(1)
摘要:BERT模型总结 前言 ​ BERT是在Google论文《BERT: Pre training of Deep Bidirectional Transformers for Language Understanding》中被提出的,是一个面向NLP的无监督预训练模型,并在多达11个任务上取得了优秀的 阅读全文
posted @ 2020-02-03 20:18 ffjsls 阅读(6851) 评论(0) 推荐(0)