AzkaBan  

2019年9月11日

摘要: 原文地址: http://www.ishenping.com/ArtInfo/941132.html 感谢作者的辛勤付出! 一、模块一之生成预训练数据 bert模型的预训练数据生成主要在create_pretraining_data.py及tokenization.py中。 执行命令: create 阅读全文
posted @ 2019-09-11 17:38 AzkaBan 阅读(1462) 评论(0) 推荐(0) 编辑
 
摘要: 原文地址: https://terrifyzhao.github.io/2019/02/18/BERT原理.html Bert其实并没有过多的结构方面的创新点,其和GPT一样均是采用的transformer的结构,相对于GPT来说,其是双向结构的,而GPT是单向的,如下图所示 结构 先看下bert的 阅读全文
posted @ 2019-09-11 17:38 AzkaBan 阅读(1260) 评论(0) 推荐(0) 编辑