摘要: 一、bert模型的整体结构 BERT主要用了Transformer的Encoder,而没有用其Decoder,可能是因为BERT是一个预训练模型,只要学到其中语义关系即可,不需要去解码完成具体的任务。整体架构如下图: 多个Transformer Encoder一层一层地堆叠起来,就组装成了BERT了 阅读全文
posted @ 2020-08-07 10:55 理想几岁 阅读(1795) 评论(0) 推荐(0) 编辑