摘要:
1.BERT模型 BERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked L 阅读全文
posted @ 2019-07-11 08:27 AYE89 阅读(655) 评论(0) 推荐(0)
|
||
|
摘要:
1.BERT模型 BERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked L 阅读全文
posted @ 2019-07-11 08:27 AYE89 阅读(655) 评论(0) 推荐(0) |
||