摘要: 1.seq2seq 一般在我们序列模型当中,都会分为encoder和decoder两个部分,如下图所示: 而我们的transformer变形金刚其实相当于是一种对我们seq2seq的一种升级版本,也就是在seq2seq上加上了self-attention,也就变成了我们的transformer,我们 阅读全文
posted @ 2021-11-09 22:13 Geeksongs 阅读(136) 评论(0) 推荐(0) 编辑

Coded by Geeksongs on Linux

All rights reserved, no one is allowed to pirate or use the document for other purposes.