self-attention
Self attention考虑了整个sequence的资讯【transfermer中重要的架构是self-attention】
解决sequence2sequence的问题,考虑前后文

I saw a saw 第一个saw对应输出动词 第二个输出名词
如何计算相关性【attention score】

输入的两个向量乘两个矩阵
Q=query k=key

看a1,自己和自己也计算了关联性。【a1,1】



只需要学习三个矩阵的参数
Self attention考虑了整个sequence的资讯【transfermer中重要的架构是self-attention】
解决sequence2sequence的问题,考虑前后文

I saw a saw 第一个saw对应输出动词 第二个输出名词
如何计算相关性【attention score】

输入的两个向量乘两个矩阵
Q=query k=key

看a1,自己和自己也计算了关联性。【a1,1】



只需要学习三个矩阵的参数