摘要: 基于Transformer解决机器翻译任务 Task2介绍了Seq2Seq 和这种编码器、解码器(Encoder-Decoder)架构,中间层使用的GRU网络,并且网络中加入了注意力机制(Attention Mechanism) Transformer介绍 基于循环或卷积神经网络的序列到序列建模方法 阅读全文
posted @ 2024-07-20 23:58 Lyanv 阅读(82) 评论(0) 推荐(0)