摘要:
Transformer 是谷歌大脑在 2017 年底发表的论文attention is all you need中所提出的 seq2seq 模型。现在已经取得了大范围的应用和扩展,而 BERT 就是从 Transformer 中衍生出来的预训练语言模型 这篇文章分为以下几个部分: Transform 阅读全文
posted @ 2022-12-01 23:14
时光如你般美好
阅读(345)
评论(0)
推荐(0)