会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
AI-aidushu
博客园
首页
新随笔
联系
订阅
管理
2024年10月16日
Transformer的核心思想---自注意力机制
摘要: 自注意力机制(Self-Attention)是Transformer模型的核心思想。它通过一种聪明的方式让神经网络在处理一个序列时(例如,一个句子中的单词),能够“注意”到序列中其他部分的相关信息,而不仅仅依赖于局部信息。相比传统的序列模型(如RNN、LSTM),自注意力机制能更好地捕捉远距离的依赖
阅读全文
posted @ 2024-10-16 12:40 待卿归携手红尘去
阅读(3578)
评论(0)
推荐(0)
公告