会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
guanzhineng
博客园
首页
新随笔
联系
订阅
管理
详细解释,一文真正搞懂Transformer,不再被误导
本文将剖析Transformer关于注意力机制的几个技术要点,包括encoder端的自注意力机制、decoder端的masked自注意力机制(训练阶段需要,推理阶段也需要)以及decoder端的交叉注意力机制等,而架构的其它部分将简单略过。搞清楚了这些技术要点,我们就能对Transformer的整体架构有一个清晰的认知,并为灵活地使用该模型打下基础。
文章已发布在首发平台,这里我就不复制粘贴啦~
首发平台链接
posted @
2025-02-06 11:43
观智能
阅读(
333
) 评论(
0
)
收藏
举报
刷新页面
返回顶部
公告