摘要: 使用ollama + AnythingLLM快速且简单的在部署本地大模型 PS:只要是ollama支持的模型都可以,比如llama,qwen以及最近大火的deepseek 不多说,直接开始 一、安装ollama ollama官网:https://ollama.com/ 下载地址:https://ol 阅读全文
posted @ 2024-04-22 23:28 DbWong_0918 阅读(37089) 评论(2) 推荐(4)