Ollama+Docker本地部署deepseek-r1模型,离线也能运行,简单到只需要3步!!!
1、下载并安装ollama
- 网址:Ollama
2、访问ollama查询deepseek-r1模型,运行它
- 命令:ollama run deepseek-r1:14b (电脑配置好的可以选择更大的模型,我的电脑显卡配置为:NVDIAGeForce GTX1650)
3、安装可视化界面,本文用docker compose启动open-webui,你也可以用其他的
- docker-compose.yml文件如下,同级目录下
docker compose up -d运行即可
version: '3.8'
services:
open-webui:
image: open-webui:latest
container_name: open-webui
ports:
- "3000:8080"
volumes:
- ./data:/app/backend/data
extra_hosts:
- "host.docker.internal:host-gateway"
restart: always
volumes:
open-webui:
external: true

浙公网安备 33010602011771号