会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Yohoc
博客园
首页
新随笔
联系
订阅
管理
自然语言处理预训练——用于预训练BERT的数据集
为了预训练
14.8节
中实现的BERT模型,我们需要以理想的格式生成数据集,以便于两个预训练任务:遮蔽语言模型和下一句预测。一方面,最初的BERT模型是在两个庞大的图书语料库和英语维基百科(参见
14.8.5节
)的合集上预训练的,但它很难吸引这本书的大多数读者。另一方面,现成的预训练BERT模型可能不适合医学等特定领域的应用。因此,在定制的数据集上对BERT进行预训练变得越来越流行。
posted @
2023-11-18 20:44
Yohoc
阅读(
103
) 评论(
0
)
收藏
举报
刷新页面
返回顶部
公告