windows本地部署deepseek-R1模型并接入wx

1、本地部署deepseek-R1模型

通过官网 https://ollama.com 下载安装 ollama
选择自身GPU显存适合的 模型,这里我用的8b

ollama run deepseek-r1:8b

2、hook wechat接入对话

通过项目 https://github.com/ngc660sec/NGCBot hook wechat
image

想必这种方式会比docker+cow网页版登录的方式安全很多(问就是之前被封过)

posted @ 2025-02-05 21:06  anyiya  阅读(194)  评论(0编辑  收藏  举报