在SelfLLM项目中发现了很多微调大模型的项目。微调语言大模型的很多了,微调多模态模型的还是较少。这里有几个例子,可以很好的参考一下:
这里做一下总结,使用float16加载模型,再配上Lora,可以在4090*24G(单卡)上微调7B的模型。7B以上的模型,需要多卡,或者是增大单卡的显存。