window10本地搭建DeepSeek R1(一)
本章介绍在window上部署 DeepSeek R1-8B + Open WebUI :需要安装的有:Ollama,python 3.11,DeepSeek ,Open WebUI。
一:环境:我的window10的环境是:12核32G GPU8+16(目前看可以运行8B的模型)
二:安装Ollama :https://ollama.com/ 直接下载window的。下载完成后直接一路安装就行。(这里默认下载到C盘,所以C盘一定要大,等会下载模型也是到C盘)

安装完成后可以看看是否安装成功:ollama -v 或者浏览器访问下: http://localhost:11434/



三:安装DeepSeek-R1:8b: 二选一即可。
ollama pull deepseek-r1:8b ; 下载模型
ollama run deepseek-r1:8b ; 下载并运行




到这里表示DeepSeek模型就安装成功了!!!
退出聊天:Ctrl+D
查看安装的模型:
ollama list ; 查看安装的模型 ollama rm 模型名字 ;卸载模型 ollama pull 模型名称 ; 安装模型 ollama run 模型名称 ; 运行模型 taskkill /F /IM ollama.exe ; 停止ollama ollama serve ; 重新启动 Ollama netstat -ano | findstr :11434 查看端口监听
注意:这里停止和重启有些问题:使用 taskkill /F /IM ollama.exe 停止后ollama会自动重启。所以可以去:任务管理器-》进程,中去停止。


然后再菜单中启动 Ollama:点击启动就行,不需要在输入任何命名。


查看文档:
https://zhuanlan.zhihu.com/p/20961114254
https://blog.csdn.net/youcans/article/details/145414871

浙公网安备 33010602011771号