window10本地搭建DeepSeek R1(一)

 本章介绍在window上部署 DeepSeek R1-8B + Open WebUI :需要安装的有:Ollama,python 3.11,DeepSeek ,Open WebUI

一:环境:我的window10的环境是:12核32G GPU8+16(目前看可以运行8B的模型)

二:安装Ollama  :https://ollama.com/    直接下载window的。下载完成后直接一路安装就行。(这里默认下载到C盘,所以C盘一定要大,等会下载模型也是到C盘)

 安装完成后可以看看是否安装成功:ollama -v 或者浏览器访问下: http://localhost:11434/

 

三:安装DeepSeek-R1:8b:  二选一即可。

ollama pull deepseek-r1:8b    ; 下载模型
ollama run deepseek-r1:8b     ; 下载并运行

 

 到这里表示DeepSeek模型就安装成功了!!!

 退出聊天:Ctrl+D 

 

查看安装的模型:

ollama list                ; 查看安装的模型
ollama rm  模型名字   ;卸载模型

ollama pull 模型名称   ; 安装模型
ollama run  模型名称  ; 运行模型

taskkill /F /IM ollama.exe   ; 停止ollama
ollama serve        ;  重新启动 Ollama
netstat -ano | findstr :11434    查看端口监听

 

注意:这里停止和重启有些问题:使用  taskkill /F /IM ollama.exe  停止后ollama会自动重启。所以可以去:任务管理器-》进程,中去停止。

 

 

然后再菜单中启动 Ollama:点击启动就行,不需要在输入任何命名。

 

 

查看文档:

https://zhuanlan.zhihu.com/p/20961114254

https://blog.csdn.net/youcans/article/details/145414871

posted @ 2025-02-07 10:51  Joy_CShow  阅读(406)  评论(0)    收藏  举报