解决ollama官方下载过慢的问题(包含windows和linux)
一、windows
点击download按钮,浏览器会跳转到新页面开始下载。

但下载速度非常慢甚至卡死,我们可以先将新页面的地址复制下来。

然后打开迅雷,新建下载,使用迅雷下载速度会快很多。

二、linux
使用官方命令同样很慢


去GitHub上https://github.com/ollama/ollama/tags
git的网页也有可能打不开,多刷新几次
先找到要下载的版本

根据需求,下载对应版本
linux查看架构命令:
uname -m
这会返回你的系统架构,比如x86_64(表示amd64)或aarch64(表示arm64)。


右键选择复制链接地址,使用迅雷下载。

下载好后用xftp传到服务器上,用解压命令解压
cd /usr/local mkdir ollama tar xvf ollama-linux-amd64.tar.zst
三、配置环境变量
开启ollama的11434端口,允许被其他主机访问
添加环境变量,让ollama命令全局生效
vim /etc/profile
#按I键开始编辑,在末尾添加
export OLLAMA_HOST=0.0.0.0
#按ESC键,输入“:wq”,按回车键
vim ~/.bashrc
#按I键开始编辑,在末尾添加
export PATH=$PATH:/usr/local/ollama/bin
#按ESC键,输入“:wq”,按回车键
#保存文件后,使修改后生效
source ~/.bashrc
四、启动ollama
#后台挂载启动 nohup ollama serve & #开启新xshell窗口 #启动模型 ollama run deepseek-r1:1.5b
#此时ollama会自动下载模型,下载完成后自动运行
若要通过调用API的方式与大模型对话,ollama的默认端口为11434
浙公网安备 33010602011771号