本地部署ollama记录
1.Ollama 安装
离线部署大模型:ollama+deepseek+open-webui安装使用方法及常见问题解决
离线部署大模型:ollama+deepseek+open-webui
chrome AI插件 - page assist 插件 - github
[软件工具使用记录] windows离线ollama部署本地模型并配置continue实现离线代码补全 - qwen2.5coder的32b模型
管理AI的工具
2.ollama常用命令
ollama
serve:启动 ollama 服务。
create:根据一个 Modelfile 创建一个模型。
show:显示某个模型的详细信息。
run:运行一个模型。
stop:停止一个正在运行的模型。
pull:从一个模型仓库(registry)拉取一个模型。
push:将一个模型推送到一个模型仓库。
list:列出所有模型。
ps:列出所有正在运行的模型。
cp:复制一个模型。
rm:删除一个模型。
help:获取关于任何命令的帮助信息。
3.huggingface 使用教程
HuggingFace 10分钟快速入门(一),利用Transformers,Pipeline探索AI。
想法:后续实现一个AI聊天功能
本地跑各种模型,然后用ai agent 和 类似qqAI聊天机器人的工具。在自己创建的新qq或者微信上提供服务。
对外接口是微信和qq的联系人,需要加这个新创建的联系人。
- 加这个新创建的qq号或者微信
- 电脑上基于这个qq后微信聊天窗口,对被人提出的问题进行回复。
- 首先提取问的问题转成文字,然后放到LLM或者VLM中 对图片和文字进行回复。

浙公网安备 33010602011771号