会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
coucoucoucou
博客园
首页
新随笔
联系
订阅
管理
2025年12月11日
MOE 详解:结合 Transformer 架构的完整分析
摘要: MOE 详解:结合 Transformer 架构的完整分析 本文基于 Google 的论文《Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer》,结合 Transformer 架构,详细解释
阅读全文
posted @ 2025-12-11 10:01 b1uesk9
阅读(217)
评论(0)
推荐(0)
公告