会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
2025年7月29日
MoR vs MoE架构对比:更少参数、更快推理的大模型新选择
摘要: Google DeepMind 近期发布了关于递归混合(Mixture of Recursion)架构的研究论文,这一新型 Transformers 架构变体在学术界和工业界引起了广泛关注。该架构通过创新的设计理念,能够在保持模型性能的前提下显著降低推理延迟和模型规模。本文将深入分析递归混合(MoR
阅读全文
posted @ 2025-07-29 18:59 deephub
阅读(41)
评论(0)
推荐(0)
公告