全网最简单DeepSeek-R1本地部署教程

1.安装ollama

打开ollama网址:https://ollama.com/

 

 

 选择你电脑的系统进行下载

我的电脑是windows的就点击windows然后点击下载即可

 

下载完毕后双击打开下载的.exe文件等待软件自动安装完毕

 

 安装完毕后,点击键盘的win+r键输入cmd进入命令行

然后输入ollama -v会显示版本

 说明ollama安装完毕

2.部署DeepSeek-R1模型

打开ollama官网:https://ollama.com/

然后点击左上角的models

 选择DeepSeek-R1模型

 

模型的大小大致分为1.5b,7b,8b,14b,32b,70b,671b

根据自己的电脑显卡和配置进行选择相应的版本

显卡要求

DeepSeek-R1-1.5b   NVIDIA RTX 3060 12GB or higher

DeepSeek-R1-7b      NVIDIA RTX 3060 12GB or higher

DeepSeek-R1-8b      NVIDIA RTX 3060 12GB or higher

DeepSeek-R1-14b    NVIDIA RTX 3060 12GB or higher

DeepSeek-R1-32b    NVIDIA RTX 4090 24GB

DeepSeek-R1-70b    NVIDIA RTX 4090 24GB *2

DeepSeek-R1-671b NVIDIA A100 80GB *16

我这边直接选择的是8b模型进行演示

 复制命令,在刚刚的命令行中直接复制+回车

 

 

显示success则为下载成功,之后可以正常对话

 如果想要退出可以使用 /bye的方式退出对话

 如果后续还想要进入对话,可以使用ollama list

 复制name,然后执行ollama run deepseek-r1:8b就可以再次进入对话啦

 但是我们每次如果想要使用ollama模型的时候都需要运行命令行,这就有点不方便

所以接下来就开始安装可视化的界面来使用本地的模型

3.安装Chatbox

打开Chatbox官网:https://chatboxai.app/zh

 点击免费下载

 双击安装

 自定义目录然后点击安装

现在我们就成功安装了Chatbox

 选择使用自己API key或者本地模型

 选择Chatbox AI

 模型设置页面,模型提供方选择Ollama API

 api域名不需要进行更改

模型选择刚在电脑上下载的ollama模型即可

然后点击保存,之后我们就可以在这个可视化模型中进行对话

 

 

到这里,本地化安装基本就结束啦,bye!

posted @ 2025-02-07 10:45  花开花落花谢  阅读(2400)  评论(3编辑  收藏  举报