会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
将者,智、信、仁、勇、严也。
Hi,我是李智华,华为-安全AI算法专家,欢迎来到安全攻防对抗的有趣世界。
博客园
首页
新随笔
联系
订阅
管理
2025年11月4日
Mistral里的MOE是什么?
摘要: Mistral里的MOE是什么? GPT-5 在 Mistral(指 Mistral.ai 的开源大语言模型)中,MoE 是 Mixture of Experts(专家混合) 的缩写。这是一种在大语言模型中常用的结构,用来在显著提升模型容量的同时控制计算成本。下面我来详细解释它的原理与在 Mistr
阅读全文
posted @ 2025-11-04 14:30 bonelee
阅读(6)
评论(0)
推荐(0)
公告