ollama 安装 HuggingFace 上的模型

HuggingFace 是全球最大的模型托管平台厂商。上面有很多私人炼丹后的模型,当需要在 ollama 中使用这些模型时就需要安装到 ollama 中。

一、HuggingFace 网址

国外站点: https://huggingface.co/models

国内 huggingface 镜像:https://hf-mirror.com/models

二、ollama 安装 高效本地推理格式(GGUF)模型

 ollama 可以直接安装 HuggingFace 上的 GGUF 格式的模型。

1、在 HuggingFace 上搜索需要安装的模型

例如: Llama-3.2-1B-Instruct-GGUF

2、点击 Use this model 查看是否支持 ollama

image

 3、点击 ollama,点击 copy,复制运行命令

image

 4、在命令行中执行如下命令安装模型

ollama run hf.co/bartowski/Llama-3.2-1B-Instruct-GGUF:Q4_K_M 

三、ollama 安装通用二进制格式(.bin)模型

huggingface 上的有些模型作者没有上传 GGUF 格式模型,不能直接在 ollama 中安装。

整体的方式是将 bin 格式模型转换为 GGUF 格式模型然后在安装到 ollama。

1、安装 llama.cpp

克隆官方仓库并进入项目目录:

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp

也可以直接下载 zip 包。

image

2、安装 Python 依赖。

pip install -r requirements.txt

3、从 HuggingFace 网站下载对应模型文件

例如: bge-large-zh-v1.5

image

A)手动下载模型文件

下载如下6个文件:

pytorch_model.bin
config.json
tokenizer.json
tokenizer_config.json
vocab.txt
special_tokens_map.json

下载后如下图:

image

B)脚本下载模型文件 

由于手动下载可能会下载错误,所以可以使用如下 python 脚本下载模型,python 代码如下:

 其中:

  repo_id:替换成模型路径

  local_dir:替换为模型下载后的保存目录

from huggingface_hub import hf_hub_download
# 下载必要的模型文件
files_to_download = [
	'pytorch_model.bin',
	'config.json',
	'tokenizer.json',
	'tokenizer_config.json',
	'vocab.txt',
	'special_tokens_map.json'
]

for filename in files_to_download:
	try:
		hf_hub_download(
			repo_id = 'BAAI/bge-large-zh-v1.5',
			filename = filename,
			local_dir = '/Users/rslai/Desktop/bge-large-zh-v1'
		)
		print(f"Downloaded {filename}")
	except Exception as e:
		print(f"Failed to download {filename}: {e}")

image

 运行 pythone 下载模型文件:

  A)将如上代码保存为 download_model.py

  B)进入 python3 虚拟环境,安装 python 虚拟环境参见:https://www.cnblogs.com/rslai/p/18741276

  C)安装 python 依赖: pip install huggingface_hub 

  D)运行 python 文件下载模型  python download_model.py 

 4、将 bin 格式模型转换为 GGUF 格式

其中:

  /Users/rslai/Desktop/bge-large-zh-v1:是上步下载模型保存的目录

  /Users/rslai/Desktop/out:是转换成 GGUF 格式后的文件保存目录

python convert_hf_to_gguf.py /Users/rslai/Desktop/bge-large-zh-v1 --outfile /Users/rslai/Desktop/out

转换后如下图:

image

注意:虽然之前安装过 llama.cpp 的 python 依赖,但也有可能提示没有安装的依赖包,根据提示安装即可。

5、使用 Modelfile 加载模型

  A)创建 Modelfile.mf 文件

如下图:

image

  B)文件中添加,其中 bge-large-zh-v1.5.gguf 是模型名称

FROM ./bge-large-zh-v1.5.gguf

  如下图:

image

  C)导入模型文件。进入对应目录后执行如下命令

ollama create bge-large-zh-v1.5 -f ./Modelfile.mf

  D)执行  ollama list  显示刚导入的模型 

image

四、ollama 安装 新型安全模型存储格式(.safetensors)模型

safetensors 格式同样使用 llama.cpp 转为 GGUF 格式,然后在使用 Modelfile 加载模型。
“安装 llama.cpp”、 “使用 Modelfile 加载模型” 这里就不重复讲解了,参见以上文档。

1、从 HuggingFace 网站下载对应模型文件

例如:bge-reranker

image

可以修改以上脚本自动下载模型,或者按上图点击下载按钮,手动下载模型文件,注意为避免错误尽量都下载。

2、将 safetensors 格式模型转换为 GGUF 格式

进入 llama.cpp 目录,执行如下命令,其中:
  • /Users/rslai/Desktop/bge-reranker-v2-m3/: 是下载模型的存放路径
  • /Users/rslai/Desktop/e/bge-reranker-v2-m3.gguf: 是转为 gguf 格式后模型的存放位置及文件名
python convert_hf_to_gguf.py /Users/rslai/Desktop/bge-reranker-v2-m3 --outfile /Users/rslai/Desktop/e/bge-reranker-v2-m3.gguf

注意:我这里执行转换时报错如下图,原因是没有安装 google 模块

image

 执行以下命令安装 google 模块。安装后重新执行转换命令即可。

pip install google-api-python-client

  

 

 

 

.ckpt : PyTorch Lightning 框架采用的模型存储格式

.pth PyTorch 的标准模型保存格式

 

参考文档:

  https://blog.csdn.net/a772304419/article/details/146600111

posted @ 2025-08-19 08:49  rslai  阅读(314)  评论(0)    收藏  举报