摘要: Meshed-Memory Transformer for Image Captioning 一句话复盘:我们提出了对self-attention增加记忆槽以引入高层信息的特征向量结构,和基于两重cross-attention作权重的encoder和decoder全连接结构。 还是边看边写的,这文章 阅读全文
posted @ 2021-08-20 17:27 Nonmy 阅读(1259) 评论(0) 推荐(1)