本地部署DeepSeek尝试

  1. 安装ollama:
    访问官网:https://ollama.com/ 下载
    点击setup.exe文件进行安装
  2. 检查ollama是否安装成功:
    命令行输入ollama -v,若显示所安装的ollama版本号则说明安装成功
  3. 拉取目标模型:
    deepseek模型从8B开始可以进行逻辑推理,要求内存16G、显卡RTX 4070(12GB显存)以上
    这里我们选择8B模型进行部署
    在命令行输入:ollama run deepseek-r1:8b
  4. 用WebUI进行交互:
    在chrome的拓展管理中下载Page Assit插件,解压完成后设置固定到工具栏以及快捷键设置检查
    默认情况下,打开ollama后按ctrl+shift+L进入WebUI
posted @ 2025-04-22 11:50  东月吹雪  阅读(36)  评论(0)    收藏  举报