会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
2025年8月17日
MXFP4量化:如何在80GB GPU上运行1200亿参数的GPT-OSS模型
摘要: 大型语言模型(Large Language Models, LLMs)如GPT-OSS、GPT-4、LLaMA和Mixtral的快速发展显著提升了人工智能的能力边界,但同时也带来了严峻的内存资源挑战。以1200亿参数的模型为例,在FP16精度下仅权重存储就需要约240GB的内存空间,这远超单个NVI
阅读全文
posted @ 2025-08-17 21:31 deephub
阅读(58)
评论(0)
推荐(0)
公告