DeepSeek本地部署完整版,附完整部署教程及下载资源包!1分钟搞定!
下载慢还得敲代码,打造“AI电脑”不容易
事实上,无论是不是DeepSeek,想要在自己电脑部署一个本地大模型,执行的步骤并不多,难点在于寻找到对应的资源和命令。但需要注意的一点是,本地大模型虽说是已经训练好的成品,但也需要有一定的硬件基础,体验才算得上好。

(图片来自Ollama)
首先,我们可以到Ollama官网下载一个桌面端应用,这个应用相当于一个承载本地大模型的“盒子”,除了DeepSeek之外,你可以在Ollama官网的模型库中找到许多开源大模型。
Ollama桌面端并不提供任何控制界面,想要将大模型下载到本地,需要在Ollama官网的模型库当中找到对应模型的代码,复制到PowerShell(Win+R输入PowerShell回车打开)当中,就可以执行模型数据的拉取和安装。

(图片来自网络)
小夏选的是DeepSeek-R1模型当中的7b版本,也就是带有70亿参数的DeepSeek-R1模型,占用4.7GB。本地大模型参数量越大自然是越好,可以提供更精准的语言理解和更高质量的文本生成能力,具备更强的逻辑推理和学习能力,同时知识储备和泛化能力。但本地大模型依赖电脑计算能力,每个人对大模型的需求不同,不应该“硬来”。
一般来说,运行1.5B参数的模型最低需要4GB显存的GPU以及16GB的内存,如果达不到要求,则会强行使用CPU进行计算,硬件负担更大,且推理的时间会更长。而满血版的DeepSeek-R1参数量为671b,体积达到404GB,需要更高规格的计算硬件才能负担得起,对于个人部署需求,小夏建议1.5b-8b参数最为适合。

(图片来自网络)
模型数据拉取完毕,系统则会自动执行安装,完成之后就可以直接在PowerShell窗口当中直接调取刚下载的DeepSeek-R1模型,输入框填写问题发送,本地大模型就会推理并生成。
DeepSeek版本介绍
| 模型参数规模 | 典型用途 | CPU 建议 | GPU 建议 | 内存建议 (RAM) | 磁盘空间建议 | 适用场景 |
|---|---|---|---|---|---|---|
| 1.5b (15亿) | 小型推理、轻量级任务 | 4核以上 (Intel i5 / AMD Ryzen 5) | 可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存) | 8GB | 10GB 以上 SSD | 小型 NLP 任务、文本生成、简单分类 |
| 7b (70亿) | 中等推理、通用任务 | 6核以上 (Intel i7 / AMD Ryzen 7) | 中端 GPU (如 NVIDIA RTX 3060, 12GB 显存) | 16GB | 20GB 以上 SSD | 中等规模 NLP、对话系统、文本分析 |
| 14b (140亿) | 中大型推理、复杂任务 | 8核以上 (Intel i9 / AMD Ryzen 9) | 高端 GPU (如 NVIDIA RTX 3090, 24GB 显存) | 32GB | 50GB 以上 SSD | 复杂 NLP、多轮对话、知识问答 |
| 32b (320亿) | 大型推理、高性能任务 | 12核以上 (Intel Xeon / AMD Threadripper) | 高性能 GPU (如 NVIDIA A100, 40GB 显存) | 64GB | 100GB 以上 SSD | 大规模 NLP、多模态任务、研究用途 |
| 70b (700亿) | 超大规模推理、研究任务 | 16核以上 (服务器级 CPU) | 多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存) | 128GB | 200GB 以上 SSD | 超大规模模型、研究、企业级应用 |
| 671b (6710亿) | 超大规模训练、企业级任务 | 服务器级 CPU (如 AMD EPYC / Intel Xeon) | 多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存) | 256GB 或更高 | 1TB 以上 NVMe SSD | 超大规模训练、企业级 AI 平台 |
到这里,DeepSeek-R1本地大模型的部署就完成了,理论上大家也可以根据这样的方法去部署其它大模型上电脑。
但每次开启电脑都要打开PowerShell界面才能激活大模型,对于普通用户而言并不方便,这个时候我们需要给DeepSeek-R1安装一套更直观的交互界面。小夏选择了在Docker应用(图标是一个蓝色海豚)上添加一个Open-WebUI组件,让DeepSeek-R1可以通过浏览器界面交互,并赋予它联系上下文的能力。
具体来看,需要先下载Docker桌面端,按照默认的引导完成安装之后(可跳过账号注册等步骤),再次打开PowerShell界面复制并执行以下这条指令,小夏帮大家省下去Github查找的时间了:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果是使用NVIDIA GPU的小伙伴,则需要使用以下这条指令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
拉取大模型文件和Open WebUI组件需要一个比较漫长的过程,尤其是网络不太理想(或者没有科x上网)的环境,下载器会不断重试/切换线路,出现下载进度丢失的问题。
安装完成之后,Docker应用中就会出现一个Open-WebUI的相关组件,把它勾选启动,再点击“3000:8080”字样的链接,系统就会跳转到网页。

(图片来自网络)
这个时候,你就获得了一台带有AI本地大模型的真正的“AI电脑”了。
小夏体验了整个部署过程,步骤并不算复杂,系统的数据拉取和安装都是自动化的,主要还是在搜索命令行和安装资源,以及拉取和安装组件时花了比较多的时间,Ollama和Docker都可以通过百度搜索到,小夏也在上面提供了对应的跳转链接,动手能力且有兴趣的各位可以尝试尝试。
附资源包:
pocketpal-ai APK文件:
https://pan.quark.cn/s/f0a986d9bf8b
pocketpal-ai GitHub:
https://github.com/a-ghorbani/pocketpal-ai
DeepSeek R1 1.5B Q4模型文件:
https://pan.quark.cn/s/2dbde83928e2
DeepSeek R1 1.5B Q8模型文件:
https://pan.quark.cn/s/9b17e6cfcb37
今天就分享到这里,希望对你们有帮助!感恩遇见!感谢有你们!码字不易,如果喜欢希望能够“点赞➕收藏➕关注”,我们建了一个免费技术/软件资源分享群、大家一起交流!可直接扫下面二维码添加我+deepseek400,请备注{技术}拉你入群,希望可以帮到你!
声明:
1、2群已满500人!
3群刚开始筹建,满200人后不在邀请新群友【有想一块交流的可以赶快】

添加请备注来意
(禁广告!禁广告!禁广告!发现秒踢拉黑!)

浙公网安备 33010602011771号