会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
fyt2025
博客园
首页
新随笔
联系
订阅
管理
transformer读书报告
自注意力机制:核心是给序列中各Token分配权重,通过Q(查询)、K(键)、V(值)计算相似度得到注意力分数,经softmax归一化后加权求和输出,多头注意力可并行捕捉多维度依赖。
位置编码:因模型无时序性,通过正弦余弦向量与Token的Embedding相加,保留序列顺序信息。
残差连接+层归一化:解决深层模型梯度消失问题,稳定训练;前馈网络对向量做非线性变换,增强表达能力。
posted @
2025-12-25 19:41
南萱
阅读(
5
) 评论(
0
)
收藏
举报
刷新页面
返回顶部
公告