alex_bn_lee

导航

2022年10月23日 #

【760】Transformer,seq2seq,Attention,Encoder-Decoder连接

摘要: 参考:Neural machine translation with a Transformer and KerasNeural machine translation with a Transformer and Keras 下面的示意图可以更加清楚的了解Encoder与Decoder之间的信息传 阅读全文

posted @ 2022-10-23 19:10 McDelfino 阅读(71) 评论(0) 推荐(0)

【759】seq2seq(编码器和解码器)和注意力机制

摘要: 参考:动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制 以机器翻译作为示例讲解的,相关笔记如下: Encoder与Decoder之间的关联,可以是最后的隐含层,或者不同的Attention层,而且对于Decoder的没一个模块都对应着不同的输入,与U-Net模型类似,如下图所示。 阅读全文

posted @ 2022-10-23 18:49 McDelfino 阅读(91) 评论(0) 推荐(0)

【758】Transformer结构图

摘要: 参考:Transformer - Attention 参考:The Transformer Family 参考:利用 Transformer 网络建立预测模型 Full Architecture 分解(Feed Forward即是Fully Connected) Encoder部分 Decoder部 阅读全文

posted @ 2022-10-23 18:37 McDelfino 阅读(1771) 评论(0) 推荐(1)