摘要: 转自:https://zhuanlan.zhihu.com/p/1916158805592474228 随着大语言模型(LLM)的参数量一路飙升,其巨大的部署成本和推理延迟成为了阻碍其广泛应用的关键瓶颈。如何在保持模型性能的同时,有效减小其体积?模型剪枝(Model Pruning) 正是解决这一问 阅读全文
posted @ 2025-06-24 18:48 有何m不可 阅读(147) 评论(0) 推荐(0)