摘要: 前言 由于 P5000 VRAM 有限,我们优先使用 QLoRA(4-bit 量化)模式进行高效微调,避免 OOM(内存不足)错误。 下载模型 https://modelscope.cn/models/LLM-Research/Meta-Llama-3-8B-Instruct/files 使用 mo 阅读全文
posted @ 2025-12-10 22:43 牛奔 阅读(21) 评论(0) 推荐(0)