摘要: 想在本地用一款 “无拘无束” 的 AI 模型?Ollama 能帮你轻松实现,但先得说清楚:这类 “越狱模型” 虽自由,却可能藏着不少小麻烦。 一、手把手装 Abliterated 无限制模型 1. 先搭好 Ollama 基础 不管用什么系统,先把 Ollama 装上 —— 它是本地跑模型的 “底座” 阅读全文
posted @ 2025-11-15 13:48 天渺工作室 阅读(76) 评论(0) 推荐(0)