会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
fariver
博客园
首页
新随笔
联系
订阅
管理
随笔分类 -
4 扩散模型
上一页
1
2
[基础] Transformer
摘要:Transformer ) 名称解释: Self-Attention: 类似于CNN里面的Conv层,是Transformer中重复次数最多的特征提取Layer。 Multi-Head Attention: 相对于Self-Attention,将每个节点外接多个q、k、v head。 Cross A
阅读全文
posted @
2024-03-04 23:20
fariver
阅读(35)
评论(0)
推荐(0)
上一页
1
2
公告