摘要: 1、本地部署deepseek-R1模型 通过官网 https://ollama.com 下载安装 ollama 选择自身GPU显存适合的 模型,这里我用的8b ollama run deepseek-r1:8b 2、hook wechat接入对话 通过项目 https://github.com/ng 阅读全文
posted @ 2025-02-05 21:06 anyiya 阅读(191) 评论(0) 推荐(0) 编辑