摘要: 1. 下载ollama 2. 安装ollma 无脑安装 3. 8b安装 那么最小的1.5b模型就拥有15亿的参数量,而最大的671b则有6710亿个参数,我们要使用的是前面这6个规模较小的模型。 ollama run deepseek-r1:8b 要等一会 安装完成: 4. AnythingLLM。 阅读全文
posted @ 2025-02-27 23:38 菜就多练forever 阅读(56) 评论(0) 推荐(0)