摘要: transformer补充细节 目录transformer补充细节注意力机制细节为什么对点积注意力进行缩放多头带来的好处数据流训练时数据流推理时数据流解码器中注意力的不同带掩码的注意力机制位置编码整型数值标记[0,1]范围标记位置二进制标记周期函数标识用sin和cos交替来表示位置训练测试细节参考资 阅读全文
posted @ 2023-12-20 20:08 贝壳里的星海 阅读(50) 评论(0) 推荐(0) 编辑
摘要: transformer总体架构 目录transformer总体架构循环神经网络总体架构EncoderDecoder输入输出层模型输入位置编码模型输出自注意力机制关于QKV的理解Q, K, V 及注意力计算多头注意力机制多头注意力机制作用Feed Forward 层参考资料 论文地址:Attentio 阅读全文
posted @ 2023-12-20 20:07 贝壳里的星海 阅读(145) 评论(0) 推荐(0) 编辑