ollama所有常见的命令及使用示例一文汇总,详细说明。
以下是 Ollama 的常用命令列表,涵盖了模型管理、运行和服务的核心功能。每个命令附带说明和示例,基于 Ollama 的官方文档和常见使用场景。
所有命令假设你在命令行(Windows 的 PowerShell/CMD 或 Linux/macOS 的终端)中运行,且 Ollama 已正确安装。
如果 Ollama 运行在 Docker 容器中,需先进入容器(如 docker exec -it <container_name> bash)执行命令。
1. ollama serve
- 功能:启动 Ollama 服务(API 服务器),允许通过 HTTP API(如 http://127.0.0.1:11434)访问模型。
- 说明:通常在后台运行,用于支持 Dify 或其他应用调用模型。
- 示例:
ollama serve
- 输出:启动服务后,终端显示服务日志,浏览器访问 http://127.0.0.1:11434 会返回 Ollama is running。
- 注意:可通过 OLLAMA_HOST 环境变量修改绑定地址,如 export OLLAMA_HOST=0.0.0.0:11434。
2. ollama list
- 功能:列出所有已下载的模型。
- 说明:显示模型名称、ID、大小和修改时间。
- 示例:
ollama list
输出:
NAME ID SIZE MODIFIED llama3.2:latest a80c4f17acd5 2.0 GB 5 days ago gemma2:27b 53261bc9c192 15 GB 5 days ago deepseek-r1:1.5b a42b25d8c10a 1.1 GB 2 weeks ago
这几个模型是我之前下载的
3. ollama ps
- 功能:列出当前正在运行的模型实例。
- 说明:显示哪些模型当前被加载到内存中(通常通过 API 或 ollama run 启动)。
- 示例:
ollama ps
输出:
MODEL ID STATUS
gemma2:27b abc123456789 running
如果没有模型运行,输出为空。
4. ollama pull <model></model>
- 功能:从 Ollama 模型库拉取指定模型。
- 说明:下载模型到本地,未拉取的模型无法使用。
- 示例:
ollama pull gemma2:27b
- 输出:显示下载进度,最终确认模型已拉取。
- 拉取完成后,可用 ollama list 确认。
5. ollama run <model></model>
- 功能:运行指定模型并进入交互式命令行模式。
- 说明:适合直接与模型对话,类似于 ChatGPT 的命令行界面。
- 示例:
ollama run llama3
输出:进入交互模式,输入提示后模型返回响应:
>>> Hello, how can I help you? I'm here to assist! What's your question?
按 Ctrl+D 或输入 /exit 退出。
6. ollama create <model> -f <modelfile></modelfile></model>
- 功能:基于 Modelfile 创建自定义模型。
- 说明:允许从现有模型或自定义配置创建新模型。
- 示例:
1.创建一个 Modelfile 文件(例如 my_model):
FROM llama3 PARAMETER temperature 0.8 SYSTEM "You are a helpful AI assistant."
2.运行命令:
ollama create my_model -f Modelfile
输出:创建完成后,模型出现在 ollama list 中。
7. ollama rm <model></model>
- 功能:删除指定模型。
- 说明:移除本地已下载的模型以释放磁盘空间。
- 示例:
ollama rm gemma2:27b
- 输出:确认模型已删除。
- 验证:运行 ollama list 检查模型是否移除。
8. ollama cp <source> <destination></destination>
- 功能:复制模型,创建新模型副本。
- 说明:用于基于现有模型创建新模型。
- 示例:
ollama cp llama3 my_custom_llama3
输出:创建新模型 my_custom_llama3,可用 ollama list 确认。
9. ollama push <model></model>
- 功能:将本地模型推送到 Ollama 模型库(需登录)。
- 说明:适合分享自定义模型。
- 示例:
ollama push my_model
- 输出:显示上传进度,需确保已配置模型库的访问权限。
10. ollama show <model></model>
- 功能:显示模型的详细信息。
- 说明:包括模型的 Modelfile、参数、系统提示等。
-
示例:
ollama show llama3
-
输出:
Model architecture: llama parameters: 8B ... Modelfile FROM llama3 PARAMETER temperature 0.7 ...
11. ollama --version
- 功能:显示 Ollama 的版本号。
- 说明:用于检查是否需要更新。
- 示例:
ollama --version
-
输出:
ollama version 0.2.7
12. ollama help
- 功能:显示所有可用命令和帮助信息。
- 说明:快速查看命令列表和用法。
- 示例:
ollama help
-
输出:列出所有命令及其描述。
13.其他实用命令和操作
- 检查 Ollama 服务状态: 测试 API 是否可用:
curl http://127.0.0.1:11434
- 输出:Ollama is running(如果服务正常)。
- 通过 API 调用模型: 使用 curl 测试模型推理:
curl http://127.0.0.1:11434/api/chat -d '{"model": "llama3", "messages": [{"role": "user", "content": "Hello"}]}'
- 输出:返回 JSON 格式的模型响应。
设置环境变量: 修改 Ollama 的绑定地址或端口:
export OLLAMA_HOST=0.0.0.0:11434 ollama serve
注意事项
- 1.Windows 环境:在 PowerShell 或 CMD 中运行上述命令。如果 Ollama 运行在 Docker 容器,需进入容器:
docker exec -it <ollama_container_name> bash
- 2.模型名称:确保使用正确的模型名称(如 gemma2:27b、llama3:8b),可在 Ollama 模型库 查看。
- 3.磁盘空间:拉取模型(如 gemma2:27b)需要数 GB 空间,检查磁盘容量:
dir E:\
- 兼容性:Dify 可能要求特定 Ollama 版本或模型支持(如 /api/chat 端点)。确保 Ollama 版本高于 0.2.7:
ollama --version
- 日志查看:如果命令失败,检查 Ollama 日志:
docker logs <ollama_container_name>
示例工作流:管理 Ollama 模型
1、启动 Ollama 服务:
ollama serve
2、拉取模型:
ollama pull gemma2:27b
3、查看已下载模型:
ollama list
4、测试模型:
ollama run gemma2:27b
>>> Hello, how are you?
5、检查运行中的模型:
ollama ps
6、删除模型:
ollama rm gemma2:27b