ollama所有常见的命令及使用示例一文汇总,详细说明。

以下是 Ollama 的常用命令列表,涵盖了模型管理、运行和服务的核心功能。每个命令附带说明和示例,基于 Ollama 的官方文档和常见使用场景。

所有命令假设你在命令行(Windows 的 PowerShell/CMD 或 Linux/macOS 的终端)中运行,且 Ollama 已正确安装。

如果 Ollama 运行在 Docker 容器中,需先进入容器(如 docker exec -it <container_name> bash)执行命令。

 

1. ollama serve

  • 功能:启动 Ollama 服务(API 服务器),允许通过 HTTP API(如 http://127.0.0.1:11434)访问模型。
  • 说明:通常在后台运行,用于支持 Dify 或其他应用调用模型。
  • 示例
ollama serve
  • 输出:启动服务后,终端显示服务日志,浏览器访问 http://127.0.0.1:11434 会返回 Ollama is running。
  • 注意可通过 OLLAMA_HOST 环境变量修改绑定地址,如 export OLLAMA_HOST=0.0.0.0:11434

 

2. ollama list

  • 功能:列出所有已下载的模型。
  • 说明:显示模型名称、ID、大小和修改时间。
  • 示例
ollama list

输出:

NAME                ID              SIZE      MODIFIED
llama3.2:latest     a80c4f17acd5    2.0 GB    5 days ago
gemma2:27b          53261bc9c192    15 GB     5 days ago
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    2 weeks ago

这几个模型是我之前下载的

 

3. ollama ps

  • 功能:列出当前正在运行的模型实例。
  • 说明:显示哪些模型当前被加载到内存中(通常通过 API 或 ollama run 启动)。
  • 示例
ollama ps

输出:

MODEL           ID              STATUS
gemma2:27b      abc123456789    running

如果没有模型运行,输出为空。

 

4. ollama pull <model></model>

  • 功能:从 Ollama 模型库拉取指定模型。
  • 说明:下载模型到本地,未拉取的模型无法使用。
  • 示例
ollama pull gemma2:27b
  • 输出:显示下载进度,最终确认模型已拉取。
  • 拉取完成后,可用 ollama list 确认。

 

5. ollama run <model></model>

  • 功能:运行指定模型并进入交互式命令行模式。
  • 说明:适合直接与模型对话,类似于 ChatGPT 的命令行界面。
  • 示例
ollama run llama3

输出:进入交互模式,输入提示后模型返回响应:

>>> Hello, how can I help you?
I'm here to assist! What's your question?

按 Ctrl+D 或输入 /exit 退出。

 

6. ollama create <model> -f <modelfile></modelfile></model>

  • 功能:基于 Modelfile 创建自定义模型。
  • 说明:允许从现有模型或自定义配置创建新模型。
  • 示例

1.创建一个 Modelfile 文件(例如 my_model):

FROM llama3
PARAMETER temperature 0.8
SYSTEM "You are a helpful AI assistant."

2.运行命令:

ollama create my_model -f Modelfile

输出:创建完成后,模型出现在 ollama list 中。

 

7. ollama rm <model></model>

  • 功能:删除指定模型。
  • 说明:移除本地已下载的模型以释放磁盘空间。
  • 示例
ollama rm gemma2:27b
  • 输出:确认模型已删除。
  • 验证:运行 ollama list 检查模型是否移除。

 

8. ollama cp <source> <destination></destination>

  • 功能:复制模型,创建新模型副本。
  • 说明:用于基于现有模型创建新模型。
  • 示例
ollama cp llama3 my_custom_llama3

输出:创建新模型 my_custom_llama3,可用 ollama list 确认。

 

9. ollama push <model></model>

  • 功能:将本地模型推送到 Ollama 模型库(需登录)。
  • 说明:适合分享自定义模型。
  • 示例
ollama push my_model
  • 输出:显示上传进度,需确保已配置模型库的访问权限。

 

10. ollama show <model></model>

  • 功能:显示模型的详细信息。
  • 说明:包括模型的 Modelfile、参数、系统提示等。
  • 示例:

ollama show llama3
  • 输出:

Model
  architecture: llama
  parameters: 8B
  ...
Modelfile
  FROM llama3
  PARAMETER temperature 0.7
  ...

 

11. ollama --version

  • 功能:显示 Ollama 的版本号。
  • 说明:用于检查是否需要更新。
  • 示例
ollama --version
  • 输出:

ollama version 0.2.7

 

12. ollama help

  • 功能:显示所有可用命令和帮助信息。
  • 说明:快速查看命令列表和用法。
  • 示例
ollama help
  • 输出:列出所有命令及其描述。

 

13.其他实用命令和操作

  • 检查 Ollama 服务状态: 测试 API 是否可用:
curl http://127.0.0.1:11434
  • 输出:Ollama is running(如果服务正常)。
  • 通过 API 调用模型: 使用 curl 测试模型推理:
curl http://127.0.0.1:11434/api/chat -d '{"model": "llama3", "messages": [{"role": "user", "content": "Hello"}]}'
  • 输出:返回 JSON 格式的模型响应。

设置环境变量: 修改 Ollama 的绑定地址或端口:

export OLLAMA_HOST=0.0.0.0:11434
ollama serve

 

注意事项

  • 1.Windows 环境:在 PowerShell 或 CMD 中运行上述命令。如果 Ollama 运行在 Docker 容器,需进入容器:
docker exec -it <ollama_container_name> bash
  • 2.模型名称:确保使用正确的模型名称(如 gemma2:27b、llama3:8b),可在 Ollama 模型库 查看。
  • 3.磁盘空间:拉取模型(如 gemma2:27b)需要数 GB 空间,检查磁盘容量:
dir E:\
  • 兼容性:Dify 可能要求特定 Ollama 版本或模型支持(如 /api/chat 端点)。确保 Ollama 版本高于 0.2.7:
ollama --version
  • 日志查看:如果命令失败,检查 Ollama 日志:
docker logs <ollama_container_name>

 

示例工作流:管理 Ollama 模型

1、启动 Ollama 服务:

ollama serve

2、拉取模型:

ollama pull gemma2:27b

3、查看已下载模型:

ollama list

4、测试模型:

ollama run gemma2:27b
>>> Hello, how are you?

5、检查运行中的模型:

ollama ps

6、删除模型:

ollama rm gemma2:27b

 

posted @ 2025-06-13 15:56  AlphaGeek  阅读(2486)  评论(2)    收藏  举报