摘要: 最近鼓捣ollama本地运行开发大模型,配合open-webui搭建自己的服务确实不错,可以本地用cpu运行本地化运行开发大模型,号称只要内存够用就行。当然,没有显卡支持是真的慢!(这个没钱解决不了的问题不是本文的关注点。) 一切仿佛都很美好(除了需要耐心),但是玩了两三天后出问题了。这天心血来潮, 阅读全文
posted @ 2024-04-07 14:22 柒零壹 阅读(508) 评论(0) 推荐(0) 编辑