摘要: 思路很简单:把 LLaVA 的所有参数 requires_grad=False,只训练你自己的模块(比如 mask 头)。下面给出几种常见写法,任选其一。 冻结整个 LLaVA(vision + projector + language model) def freeze_llava(llava): 阅读全文
posted @ 2025-11-07 02:47 zae 阅读(4) 评论(0) 推荐(0)