本地部署ollama记录

huggingface - 抱脸官网

ollama 官网

1.Ollama 安装

菜鸟教程 - ollama 教程

liunx 安装ollama

Ollama离线安装本地大语言模型

离线安装 Ollama及加载离线模型

离线部署大模型:ollama+deepseek+open-webui安装使用方法及常见问题解决

玩转Ollama——模型下载得太慢啦!离线下载的方法

离线部署大模型:ollama+deepseek+open-webui

chrome AI插件 - page assist 插件 - github

[软件工具使用记录] windows离线ollama部署本地模型并配置continue实现离线代码补全 - qwen2.5coder的32b模型

管理AI的工具

github- open-webui

2.ollama常用命令



ollama 

serve:启动 ollama 服务。
create:根据一个 Modelfile 创建一个模型。
show:显示某个模型的详细信息。
run:运行一个模型。
stop:停止一个正在运行的模型。
pull:从一个模型仓库(registry)拉取一个模型。
push:将一个模型推送到一个模型仓库。
list:列出所有模型。
ps:列出所有正在运行的模型。
cp:复制一个模型。
rm:删除一个模型。
help:获取关于任何命令的帮助信息。

3.huggingface 使用教程

HuggingFace 10分钟快速入门(一),利用Transformers,Pipeline探索AI。

想法:后续实现一个AI聊天功能

本地跑各种模型,然后用ai agent 和 类似qqAI聊天机器人的工具。在自己创建的新qq或者微信上提供服务。

对外接口是微信和qq的联系人,需要加这个新创建的联系人。

  1. 加这个新创建的qq号或者微信
  2. 电脑上基于这个qq后微信聊天窗口,对被人提出的问题进行回复。
  3. 首先提取问的问题转成文字,然后放到LLM或者VLM中 对图片和文字进行回复。
posted @ 2025-11-13 16:45  长江~之星  阅读(17)  评论(0)    收藏  举报