Ollama本地部署DeepSeek

本地部署DeepSeek

一、Windows端部署

首先进入ollama的官方网站

点击Download下载ollama的windows版本

下载完成后运行OllamaSetup.exe,按照提示完成安装,一般安装完成后就自动运行了(右下角能看到小羊驼的图标

如果不想默认装在C盘不要直接双击运行安装程序

在安装包所在的目录下打开命令提示符(在文件夹地址栏输入cmd并按回车即可快速打开),输入以下命令来指定安装路径(例如将D:\ollama\Path替换为你希望的安装路径):

OllamaSetup.exe /DIR="D:\ollama\Path"

回车后,安装程序将按照你指定的路径D:\ollama\Path进行安装。

回到ollama的官方网站,顶部搜索栏搜索deepseek-r1,点击进入

根据硬件配置选择不同参数量的模型,然后复制旁边的命令(比如我选的70b模型),对应的命令如下:

ollama run deepseek-r1:70b

然后按下Windows键+R打开搜索栏,输入cmd打开命令行,输入ollama run deepseek-r1:70b,等待模型下载并加载完成即可

由于模型文件一般都很大,输入ollama run deepseek-r1:70b会自动下载到C盘,如果不想下载到C盘,可以设置OLLAMA_MODELS环境变量,指定模型下载路径。下面的步骤只需要第一次下载模型的时候设置一下,后面就一劳永逸不用设置了,具体步骤如下:

  1. 按下Windows键+R,输入sysdm.cpl,然后按Enter键,打开系统属性窗口(直接在搜索栏输入环境变量也可以);
  2. 系统属性窗口中,选择高级选项页,然后点击环境变量按钮;
  3. 环境变量窗口中,点击新建按钮;
  4. 系统变量窗口中,输入变量名OLLAMA_MODELS,变量值为你希望的模型存储路径(例如D:\Ollama\Models),然后点击确定即可。

注意:OLLAMA_MODELS环境变量设置完成后,需要重新然后按下Windows键+R打开搜索栏,输入cmd打开命令行窗口才能生效。

二、Linux端部署(WSL部署)

WSL安装可以看这篇文章

还是进入ollama的官方网站

点击Download下载ollama的Linux版本

复制命令等待装好即可

curl -fsSL https://ollama.com/install.sh | sh

然后同样回到ollama的官方网站,顶部搜索栏搜索deepseek-r1,点击进入

根据硬件配置选择不同参数量的模型,然后还是同样复制旁边的命令(比如我选的70b模型),对应的命令如下:

ollama run deepseek-r1:70b

等待下载完成即可。

posted @ 2025-03-22 20:21  Soapen  阅读(81)  评论(0)    收藏  举报