会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
-Watcher-
博客园
首页
新随笔
联系
订阅
管理
2025年3月16日
本地部署Gemma3模型
摘要: 本地部署Gemma3模型 1. 拉取并运行 Ollama 容器 # 拉取 Ollama 镜像 docker pull ollama/ollama # 运行 Ollama 容器 docker run -d --gpus all -v ollama:/root/.ollama -p 11434:1143
阅读全文
posted @ 2025-03-16 22:48 -Watcher-
阅读(221)
评论(0)
推荐(0)
公告