解决ollama官方下载过慢的问题(包含windows和linux)

一、windows

点击download按钮,浏览器会跳转到新页面开始下载。

image

但下载速度非常慢甚至卡死,我们可以先将新页面的地址复制下来。

image

 然后打开迅雷,新建下载,使用迅雷下载速度会快很多。

image

 

二、linux

使用官方命令同样很慢

image

 

image

去GitHub上https://github.com/ollama/ollama/tags

git的网页也有可能打不开,多刷新几次

先找到要下载的版本

image

 根据需求,下载对应版本

linux查看架构命令:

uname -m

 

这会返回你的系统架构,比如x86_64(表示amd64)或aarch64(表示arm64)。

image

 

image

右键选择复制链接地址,使用迅雷下载。

image

 下载好后用xftp传到服务器上,用解压命令解压

cd /usr/local
mkdir ollama
tar xvf  ollama-linux-amd64.tar.zst

三、配置环境变量

开启ollama的11434端口,允许被其他主机访问

添加环境变量,让ollama命令全局生效

vim /etc/profile

#按I键开始编辑,在末尾添加
export OLLAMA_HOST=0.0.0.0
#按ESC键,输入“:wq”,按回车键

vim ~/.bashrc
#按I键开始编辑,在末尾添加
export PATH=$PATH:/usr/local/ollama/bin
#按ESC键,输入“:wq”,按回车键

#保存文件后,使修改后生效
source ~/.bashrc

 

四、启动ollama

#后台挂载启动
nohup ollama serve &
#开启新xshell窗口
#启动模型
ollama run deepseek-r1:1.5b
#此时ollama会自动下载模型,下载完成后自动运行

 若要通过调用API的方式与大模型对话,ollama的默认端口为11434

posted on 2026-04-20 17:04  Neonuu  阅读(500)  评论(0)    收藏  举报