DeepSeek本地部署完整版,附完整部署教程及下载资源包!1分钟搞定!

下载慢还得敲代码,打造“AI电脑”不容易

事实上,无论是不是DeepSeek,想要在自己电脑部署一个本地大模型,执行的步骤并不多,难点在于寻找到对应的资源和命令。但需要注意的一点是,本地大模型虽说是已经训练好的成品,但也需要有一定的硬件基础,体验才算得上好。

(图片来自Ollama)

首先,我们可以到Ollama官网下载一个桌面端应用,这个应用相当于一个承载本地大模型的“盒子”,除了DeepSeek之外,你可以在Ollama官网的模型库中找到许多开源大模型。

Ollama桌面端并不提供任何控制界面,想要将大模型下载到本地,需要在Ollama官网的模型库当中找到对应模型的代码,复制到PowerShell(Win+R输入PowerShell回车打开)当中,就可以执行模型数据的拉取和安装。

(图片来自网络)

小夏选的是DeepSeek-R1模型当中的7b版本,也就是带有70亿参数的DeepSeek-R1模型,占用4.7GB。本地大模型参数量越大自然是越好,可以提供更精准的语言理解和更高质量的文本生成能力,具备更强的逻辑推理和学习能力,同时知识储备和泛化能力。但本地大模型依赖电脑计算能力,每个人对大模型的需求不同,不应该“硬来”。

一般来说,运行1.5B参数的模型最低需要4GB显存的GPU以及16GB的内存,如果达不到要求,则会强行使用CPU进行计算,硬件负担更大,且推理的时间会更长。而满血版的DeepSeek-R1参数量为671b,体积达到404GB,需要更高规格的计算硬件才能负担得起,对于个人部署需求,小夏建议1.5b-8b参数最为适合。

(图片来自网络)

模型数据拉取完毕,系统则会自动执行安装,完成之后就可以直接在PowerShell窗口当中直接调取刚下载的DeepSeek-R1模型,输入框填写问题发送,本地大模型就会推理并生成。

DeepSeek版本介绍

模型参数规模 典型用途 CPU 建议 GPU 建议 内存建议 (RAM) 磁盘空间建议 适用场景
1.5b (15亿) 小型推理、轻量级任务 4核以上 (Intel i5 / AMD Ryzen 5) 可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存) 8GB 10GB 以上 SSD 小型 NLP 任务、文本生成、简单分类
7b (70亿) 中等推理、通用任务 6核以上 (Intel i7 / AMD Ryzen 7) 中端 GPU (如 NVIDIA RTX 3060, 12GB 显存) 16GB 20GB 以上 SSD 中等规模 NLP、对话系统、文本分析
14b (140亿) 中大型推理、复杂任务 8核以上 (Intel i9 / AMD Ryzen 9) 高端 GPU (如 NVIDIA RTX 3090, 24GB 显存) 32GB 50GB 以上 SSD 复杂 NLP、多轮对话、知识问答
32b (320亿) 大型推理、高性能任务 12核以上 (Intel Xeon / AMD Threadripper) 高性能 GPU (如 NVIDIA A100, 40GB 显存) 64GB 100GB 以上 SSD 大规模 NLP、多模态任务、研究用途
70b (700亿) 超大规模推理、研究任务 16核以上 (服务器级 CPU) 多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存) 128GB 200GB 以上 SSD 超大规模模型、研究、企业级应用
671b (6710亿) 超大规模训练、企业级任务 服务器级 CPU (如 AMD EPYC / Intel Xeon) 多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存) 256GB 或更高 1TB 以上 NVMe SSD 超大规模训练、企业级 AI 平台

到这里,DeepSeek-R1本地大模型的部署就完成了,理论上大家也可以根据这样的方法去部署其它大模型上电脑。

但每次开启电脑都要打开PowerShell界面才能激活大模型,对于普通用户而言并不方便,这个时候我们需要给DeepSeek-R1安装一套更直观的交互界面。小夏选择了在Docker应用(图标是一个蓝色海豚)上添加一个Open-WebUI组件,让DeepSeek-R1可以通过浏览器界面交互,并赋予它联系上下文的能力。

具体来看,需要先下载Docker桌面端,按照默认的引导完成安装之后(可跳过账号注册等步骤),再次打开PowerShell界面复制并执行以下这条指令,小夏帮大家省下去Github查找的时间了:

 

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

 

如果是使用NVIDIA GPU的小伙伴,则需要使用以下这条指令:

 

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

 

拉取大模型文件和Open WebUI组件需要一个比较漫长的过程,尤其是网络不太理想(或者没有科x上网)的环境,下载器会不断重试/切换线路,出现下载进度丢失的问题。

安装完成之后,Docker应用中就会出现一个Open-WebUI的相关组件,把它勾选启动,再点击“3000:8080”字样的链接,系统就会跳转到网页。

(图片来自网络)

这个时候,你就获得了一台带有AI本地大模型的真正的“AI电脑”了。

小夏体验了整个部署过程,步骤并不算复杂,系统的数据拉取和安装都是自动化的,主要还是在搜索命令行和安装资源,以及拉取和安装组件时花了比较多的时间,Ollama和Docker都可以通过百度搜索到,小夏也在上面提供了对应的跳转链接,动手能力且有兴趣的各位可以尝试尝试。

 

附资源包:

pocketpal-ai APK文件:
https://pan.quark.cn/s/f0a986d9bf8b

pocketpal-ai GitHub:
https://github.com/a-ghorbani/pocketpal-ai

DeepSeek R1 1.5B Q4模型文件:
https://pan.quark.cn/s/2dbde83928e2

DeepSeek R1 1.5B Q8模型文件:
https://pan.quark.cn/s/9b17e6cfcb37

今天就分享到这里,希望对你们有帮助!感恩遇见!感谢有你们!码字不易,如果喜欢希望能够“点赞➕收藏➕关注”,我们建了一个免费技术/软件资源分享群、大家一起交流!可直接扫下面二维码添加我+deepseek400,请备注{技术}拉你入群,希望可以帮到你!

声明:

1、2群已满500人!

3群刚开始筹建,满200人后不在邀请新群友【有想一块交流的可以赶快】

添加请备注来意

(禁广告!禁广告!禁广告!发现秒踢拉黑!)

posted @ 2025-02-10 10:02  夏天的思考  阅读(12690)  评论(0)    收藏  举报