摘要:
BERT的新语言表示模型,它代表Transformer的双向编码器表示。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调,适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务 阅读全文
posted @ 2019-03-12 11:05
Google-boy
阅读(294)
评论(0)
推荐(0)
浙公网安备 33010602011771号