Ollama本地部署DeepSeek
本地部署DeepSeek
一、Windows端部署
首先进入ollama的官方网站
点击Download下载ollama的windows版本
下载完成后运行OllamaSetup.exe,按照提示完成安装,一般安装完成后就自动运行了(右下角能看到小羊驼的图标)
如果不想默认装在C盘就不要直接双击运行安装程序
在安装包所在的目录下打开命令提示符(在文件夹地址栏输入cmd并按回车即可快速打开),输入以下命令来指定安装路径(例如将D:\ollama\Path替换为你希望的安装路径):
OllamaSetup.exe /DIR="D:\ollama\Path"
回车后,安装程序将按照你指定的路径D:\ollama\Path进行安装。
回到ollama的官方网站,顶部搜索栏搜索deepseek-r1,点击进入
根据硬件配置选择不同参数量的模型,然后复制旁边的命令(比如我选的70b模型),对应的命令如下:
ollama run deepseek-r1:70b
然后按下Windows键+R打开搜索栏,输入cmd打开命令行,输入ollama run deepseek-r1:70b,等待模型下载并加载完成即可
由于模型文件一般都很大,输入ollama run deepseek-r1:70b会自动下载到C盘,如果不想下载到C盘,可以设置OLLAMA_MODELS环境变量,指定模型下载路径。下面的步骤只需要第一次下载模型的时候设置一下,后面就一劳永逸不用设置了,具体步骤如下:
- 按下
Windows键+R,输入sysdm.cpl,然后按Enter键,打开系统属性窗口(直接在搜索栏输入环境变量也可以); - 在系统属性窗口中,选择高级选项页,然后点击环境变量按钮;
- 在环境变量窗口中,点击新建按钮;
- 在系统变量窗口中,输入变量名
OLLAMA_MODELS,变量值为你希望的模型存储路径(例如D:\Ollama\Models),然后点击确定即可。
注意:OLLAMA_MODELS环境变量设置完成后,需要重新然后按下Windows键+R打开搜索栏,输入cmd打开命令行窗口才能生效。
二、Linux端部署(WSL部署)
WSL安装可以看这篇文章
还是进入ollama的官方网站
点击Download下载ollama的Linux版本
复制命令等待装好即可
curl -fsSL https://ollama.com/install.sh | sh
然后同样回到ollama的官方网站,顶部搜索栏搜索deepseek-r1,点击进入
根据硬件配置选择不同参数量的模型,然后还是同样复制旁边的命令(比如我选的70b模型),对应的命令如下:
ollama run deepseek-r1:70b
等待下载完成即可。

浙公网安备 33010602011771号