【论文阅读】ALBERT: A Lite BERT for Self-supervised Learning of Language Representations[arXiv2019]
摘要:
论文地址:https://arxiv.org/abs/1909.11942v1 代码地址: ABSTRACT 提出减少BERT参数的方法,我们还使用了一个自我监督 loss,专注于建模句间连贯focuses on modeling inter-sentence coherence,并表明它始终有助于 阅读全文
posted @ 2021-07-31 20:06 Harukaze 阅读(634) 评论(0) 推荐(0)
浙公网安备 33010602011771号