Ollama+Docker本地部署deepseek-r1模型,离线也能运行,简单到只需要3步!!!

1、下载并安装ollama
2、访问ollama查询deepseek-r1模型,运行它
  • 命令:ollama run deepseek-r1:14b (电脑配置好的可以选择更大的模型,我的电脑显卡配置为:NVDIAGeForce GTX1650)
3、安装可视化界面,本文用docker compose启动open-webui,你也可以用其他的
  • docker-compose.yml文件如下,同级目录下docker compose up -d 运行即可
version: '3.8'

services:
  open-webui:
    image: open-webui:latest
    container_name: open-webui
    ports:
      - "3000:8080"
    volumes:
      - ./data:/app/backend/data
    extra_hosts:
      - "host.docker.internal:host-gateway"
    restart: always

volumes:
  open-webui:
    external: true
posted @ 2025-03-04 16:45  xietingweia  阅读(598)  评论(0)    收藏  举报