Deepseek-R1部署案例分析

【项目背景】
介绍在Windows11平台下的Deepseek私有化应用部署。
【经验介绍】
1、部署环境说明。
步骤
对象
功能
1
ollama
运行LLM 推理引擎框架
2
Deepseek-R1:7B\8B\14B\32B
AI模型,其中7B表示模型的大小,数字越大越好。对于个人用户14B就可以了。
2、硬件适配性。
规模
CPU
RAM
GPU
效果
7b
5500U
24G
---
可用,运行慢
7b
5600G
32G
---
可用,运行慢
14b
5600G
32G
RTX3060 12G
32b
5600G
32G
RTX3060 12G
可用,运行慢,CPU+GPU
3、ollama应用软件的安装与设置。
3.1、安装ollama
步骤
操作
说明
1
 
访问官网(https://ollama.com)。
2
 
下载 ollama。
3
 
1、在【下载】目录中,可见到下载成功的ollama程序。2、APP默认直接安装在C盘且目录隐藏很深,建议改安装在其它磁盘上(最好是固态盘)。
4
 
1、先将ollama安装程序复制到D盘;2、打开【命令提示符】;3、执行转盘符"D:"回车4、输入指令:OllamaSetup.exe /DIR=D:\LLM\ollam5、”Install“即可。
5
 
6
 
安装并成功运行。
3.2、配置ollama
图例
说明
 
1、如右图打开【环境变量】面板,选择【系统变量】设定。
 
2、点【编辑】参照右图进行设定。
【ollama重点参数】
配置
参数
 
2个重点参数先设定。
1、默认绑定的是127.0.0.1,也就是说只能本机自身访问。当其他网络设备想要调用时就不通了。2、建议修改为0.0.0.0,允许所有设备访问。3、【:11434】是默认端口号,不用变更。
OLLAMA_HOST
指定模型下载的存放路径,自行选择有空间的固态盘即可。
OLLAMA_MODELS
 
4、大模型安装。
步骤
图例
说明
1
   
2
 
可尝试任选:1、deepseek 2、qwen3:14b3、gemma3:14b
 
知识库需用向量模型(Embedding),可任选尝试:1、nomic-embed-text2、mxbai-embed-large3、bge-m3
3
 
以deepseek安装为例,其它的模型安装也是同样操作。
4
 
复制大模型安装语句指令
5
 
执行指令安装大模型:ollama run deepseek-r1:14b
 
安装案例效果图如果出现下载缓慢或是没有响应,可以直接关闭重复安装操作。
6
 
可执行指令大模型是否安装成功:ollama list
7
 
1、如果大模型安装成功,就可以直接对话提问。2、如果要切换图6任意下载的大模型或是重新开一个空窗口执行大模型任务,就再次执行如左图指令。ollama run 具体模型名称
8
 
左图是运行图例7(14B)大模型的显卡资源运行情况。
 
 
参考文献链接
posted @ 2025-06-02 04:47  吴建明wujianming  阅读(88)  评论(0)    收藏  举报