摘要: 之前初步接触深度学习里注意力机制的时候,一直不太理解为什么这个体现了不同向量之间的关联性,为什么有query、key-value pair这些东西,怎么体现多头注意力,为什么叫自注意力。后面看了李宏毅老师的课程和最近看的《普林斯顿计算机公开课》这本书,有了自己的理解。 前面两个问题,可以通过类比搜索 阅读全文
posted @ 2025-04-11 21:10 pomolnc 阅读(21) 评论(0) 推荐(0)