[huggingface] huggingface 有和 `git clone` 一样方便的命令
huggingface 有和 git clone 一样方便的命令,专门用于下载 Hugging Face 上的模型。直接使用 git clone 来下载大模型通常效率很低,甚至会失败,因为 Git 并不擅长处理超大文件。
最推荐的方式是使用 Hugging Face 官方的命令行工具。
使用 Hugging Face CLI
这个工具可以让你用一个简单的命令,将模型仓库中的所有文件一次性下载到本地。
第一步:安装工具
首先,安装 huggingface_hub 库。
pip install --upgrade huggingface_hub
第二步:运行下载命令
然后,使用 huggingface-cli download 命令来下载你需要的模型。你只需提供模型名称和下载路径即可。
huggingface-cli download --local-dir ./gemma-3n-E4B-it-MLX-4bit lmstudio-community/gemma-3n-E4B-it-MLX-4bit --local-dir-use-symlinks False
--local-dir ./gemma-3n-E4B-it-MLX-4bit:指定模型下载到你当前目录下的gemma-3n-E4B-it-MLX-4bit文件夹中。lmstudio-community/gemma-3n-E4B-it-MLX-4bit:这是你想要下载的模型名称。--local-dir-use-symlinks False:这个参数确保下载的是实际文件,而不是符号链接,这对于离线使用非常重要。
使用 Python 代码 (编程方式)
如果你打算在 Python 程序中完成下载,可以使用 huggingface_hub 库的 snapshot_download 函数,它非常灵活。
from huggingface_hub import snapshot_download
# 指定模型名称和下载路径
model_name = "lmstudio-community/gemma-3n-E4B-it-MLX-4bit"
local_path = "./gemma-3n-E4B-it-MLX-4bit"
# 运行下载
snapshot_download(repo_id=model_name, local_dir=local_path)
这两种方法都能高效地下载所有文件,并且在下载中断后可以恢复,比 git clone 更适合大模型。
                    
                
                
            
        
浙公网安备 33010602011771号