摘要: 本地部署Gemma3模型 1. 拉取并运行 Ollama 容器 # 拉取 Ollama 镜像 docker pull ollama/ollama # 运行 Ollama 容器 docker run -d --gpus all -v ollama:/root/.ollama -p 11434:1143 阅读全文
posted @ 2025-03-16 22:48 -Watcher- 阅读(221) 评论(0) 推荐(0)