摘要:
目录 transformer简介 transformer模型分析 相关对比和问题 一句话简介:2017年(Atention is all you need)引出,采用了 从Encoder(2个子层)-Decoder(3个子层)架构,包含几个重要组件:Self-Attention,Multi-Head 阅读全文
摘要:
目录 Attention介绍 Attention原理 Attention的其他应用 代码尝试 一句话简介:九几年提出的概念,2014年在视觉领域火了以后,逐步引入NLP中,2017年的《Attention is all you need》引爆改结构,初步思想也很简单,就是提高某个区域的权重系数,有L 阅读全文