本地部署DeepSeek尝试
- 安装ollama:
访问官网:https://ollama.com/ 下载
点击setup.exe文件进行安装 - 检查ollama是否安装成功:
命令行输入ollama -v,若显示所安装的ollama版本号则说明安装成功 - 拉取目标模型:
deepseek模型从8B开始可以进行逻辑推理,要求内存16G、显卡RTX 4070(12GB显存)以上
这里我们选择8B模型进行部署
在命令行输入:ollama run deepseek-r1:8b - 用WebUI进行交互:
在chrome的拓展管理中下载Page Assit插件,解压完成后设置固定到工具栏以及快捷键设置检查
默认情况下,打开ollama后按ctrl+shift+L进入WebUI

浙公网安备 33010602011771号