背景

SelfLLM项目中发现了很多微调大模型的项目。微调语言大模型的很多了,微调多模态模型的还是较少。这里有几个例子,可以很好的参考一下:

这里做一下总结,使用float16加载模型,再配上Lora,可以在4090*24G(单卡)上微调7B的模型。7B以上的模型,需要多卡,或者是增大单卡的显存。

posted on 2025-03-31 16:30  蔚蓝色の天空  阅读(41)  评论(0)    收藏  举报