摘要: 本文首发于:行者AI 2018年Bert的横空出世给自然语言处理带来了巨大的突破,Bert及其衍生模型在多个文本处理下游任务中达到了SOTA的结果。但是这样的提升是有一定代价的,其中之一就是计算量的大幅增长。 BERT-base模型是由12层Transformer构成,模型有大约1亿参数参与运算,而 阅读全文
posted @ 2021-04-01 16:24 行者AI 阅读(292) 评论(0) 推荐(0)