会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
luxiangyu623
博客园
首页
新随笔
联系
订阅
管理
2025年10月21日
分组查询注意力(GQA)的Pytorch实现
摘要: 自注意力层(分组查询注意力) 初始化 class SelfAttention(nn.Module): def __init__(self, config, layer_idx): super().__init__() self.layer_idx = layer_idx self.n_head =
阅读全文
posted @ 2025-10-21 09:55 Luxxx23
阅读(6)
评论(1)
推荐(1)
公告