AzkaBan |
|
||
2019年9月11日
摘要:
原文地址: http://www.ishenping.com/ArtInfo/941132.html 感谢作者的辛勤付出! 一、模块一之生成预训练数据 bert模型的预训练数据生成主要在create_pretraining_data.py及tokenization.py中。 执行命令: create 阅读全文
摘要:
原文地址: https://terrifyzhao.github.io/2019/02/18/BERT原理.html Bert其实并没有过多的结构方面的创新点,其和GPT一样均是采用的transformer的结构,相对于GPT来说,其是双向结构的,而GPT是单向的,如下图所示 结构 先看下bert的 阅读全文
|
Copyright © 2024 AzkaBan
Powered by .NET 8.0 on Kubernetes |