会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
bolunwei
博客园
首页
新随笔
联系
订阅
管理
2023年6月4日
01.Self—attention
摘要: self—attention 自注意力机制 一、输入 在学习自注意力机制之前,我们学到的神经网络的输入都是一个向量,输出可能是一个数值或者是一个类别。 1.举个例子。假设输入的向量是一排向量,而且输入的向量的数目是会改变的, 最简单的输入长度会改变的向量就是文字处理,假设我们的输入是一个句子的话。
阅读全文
posted @ 2023-06-04 14:41 Rswxgs
阅读(86)
评论(0)
推荐(0)
公告