简述
前段时间推出的DeepSeek R1推理模型,与传统的大型语言模型有些不同,它能模拟逐步思考的过程,将复杂问题分解为更小的逻辑步骤,再得出解决方案,在数学推理、编程辅助和决策制定等需要深度理解的任务上表现更出色。这里也提供了两种方法来本地运行官方开源的模型。
文章文件
喜欢的朋友可以关注一下公众号:泷羽Sec-小篮子
相关打包的文件:https://pan.quark.cn/s/e2c6cb8b3562
ollama部署
下载安装程序
- 在官网点击Download下载对应系统的安装程序。
 ![]() 
安装ollama
- C盘够大的打开直接- install即可
 ![]() 
- 如果你想安装到指定目录可以在安装程序目录上方输入CMD打开命令行窗口
 ![]() 
- 然后执行下方命令
OllamaSetup.exe /DIR="d:\ollama"
#OllamaSetup.exe 下载的安装程序名
#d:\ollama 安装的路径

下载模型
- 找到模型并打开页面
 ![]() 
- 选择模型大小。正常情况下根据自己的显卡显存选择,比如显存8G就选择8B的模型
 ![]() 
- 命令行打开执行安装模型,后即可完成。
 ![]() 
更换模型目录/端口
- 默认模型存放位置是在C盘的C:\Users\用户名\.ollama\models下。
 ![]() 
- 打开设置的高级系统设置,设置一个新环境变量名字OLLAMA_MODELS,变量值为新的模型文件夹存放路径
 ![]() 
- 将默认模型路径下的models文件夹移动到新目录下。后即可。注意!这样卸载ollama后是不会删除模型文件的。
 ![]() 
修改端口
- 修改ollama默认映射端口,一样是修改环境变量,更改OLLAMA_HOST的值即可。
 ![]() 
LMstudio部署
下载安装程序
- 在官网选择对应系统的安装程序下载。
 ![]() 
安装LMstudio
- 设置安装路径后默认安装即可
 ![]() 
更换为国内源
- 右键桌面图标,打开文件所在位置,默认在C:\Users\用户名\AppData\Local\Programs\lm-studio\LM Studio
 ![]() 
- 打开当前目录下的\resources\app\.webpack\renderer\main_window.js文件。
 ![]() 
- 将huggingface.co域名替换为hf-mirror.com域名
 ![]() 
- 打开当前目录下的\resources\app\.webpack\main\index.js
 ![]() 
- 和上一步替换的域名一样。
 ![]() 
下载模型
- 这里下载DeepSeek-R1的Distill模型,具体步骤可以看图。
 ![]() 
- 选择模型后即可使用。
 ![]() 
扩展玩法|模型设定
- 在页面的右上角的药水瓶,点开,可以给模型设置预设。
 ![]() 
扩展
为ollama添加GUI
- 这里就可以依靠另一个项目chatbox,在官网下载对应系统的版本。
 ![]() 
- 设置安装目录后安装即可
 ![]() 
- 设置ollama的服务地址默认为127.0.0.1的本地回环地址,端口默认为8000,我这里前面更改了端口地址。
 ![]() 
- 可自行设置一个搭档,我这里直接照搬之前LMstudio设置的
 ![]() 
- 应用测试
 ![]() 
 
                    
                     
                    
                 
                    
                 
        
























 
                
            
         浙公网安备 33010602011771号
浙公网安备 33010602011771号