摘要: 本文告诉我们attention机制可以不仅用于联系编码器和解码器,也可以用于模型的全部部分的构筑。 arXiv:1706.03762v5 贡献小引: Equal contribution. (先驱)Jakob proposed replacing RNNs with self-attention a 阅读全文
posted @ 2022-01-12 22:25 千心 阅读(217) 评论(0) 推荐(0)