摘要:
本博客翻译自RUDER的博客《ML and NLP Research Highlights of 2020》 本文选取的领域和方法很大程度上受到自身兴趣的影响,所选择的话题偏向于表征学习和迁移学习,也偏向于NLP。我尽量覆盖自己听到看到的所有论文,但是也可能会遗漏很多相关的工作,请读者不要拘束,直接 阅读全文
摘要:
key value 名称 Pre-training with Whole Word Masking for Chinese BERT 一作 崔一鸣 单位 哈工大; 讯飞实验室 发表 技术报告 时间 2019.10 领域 预训练模型 主要贡献 将whole word masking方法用在中文预训练上 阅读全文