摘要:
随着 llama.cpp 对 LoRA 支持的重构,现在可以将任意 PEFT LoRA 适配器转换为 GGUF,并与 GGUF 基础模型一起加载运行。 为简化流程,我们新增了一个名为 GGUF-my-LoRA 的平台。 什么是 LoRA? LoRA(Low-Rank Adaptation,低秩适配) 阅读全文
随着 llama.cpp 对 LoRA 支持的重构,现在可以将任意 PEFT LoRA 适配器转换为 GGUF,并与 GGUF 基础模型一起加载运行。 为简化流程,我们新增了一个名为 GGUF-my-LoRA 的平台。 什么是 LoRA? LoRA(Low-Rank Adaptation,低秩适配) 阅读全文
posted @ 2024-11-25 22:41
HuggingFace
阅读(622)
评论(0)
推荐(0)

浙公网安备 33010602011771号