随笔分类 -  【AI】

上一页 1 2

SpringAI系列---【MCP协议与AI Agent技术解析】
摘要:MCP协议与AI Agent技术解析:从FunctionCall到Spring AI的智能家居实战 引言 在AI与物联网深度融合的浪潮中,如何实现设备间的智能协作成为关键挑战。本文通过智能家居场景,深入解析MCP协议、AI Agent、FunctionCall及Spring AI四者的协同关系,揭示 阅读全文

posted @ 2025-03-25 00:01 少年攻城狮 阅读(1248) 评论(0) 推荐(0)

Ollama系列---【ollama使用gpu运行大模型】
摘要:一、安装CudaToolkit 使用控制台命令查看当前显卡驱动中的cuda版本 nvidia-smi 二、下载CudaToolkit 注意:CudaToolkit版本要低于上面的显卡Cuda版本。 Cuda各版本下载地址:https://developer.nvidia.com/cuda-toolk 阅读全文

posted @ 2025-02-09 19:40 少年攻城狮 阅读(25445) 评论(0) 推荐(2)

Dify系列---【离线安装Dify】
摘要:1.环境要求 这里以centos7,4c8g为例,先安装好docker和docker-compose。 2.下载安装包 GitHub地址:https://github.com/langgenius/dify 3.上传到/opt/app/middles/dify目录下并解压 unzip dify-ma 阅读全文

posted @ 2025-01-08 14:09 少年攻城狮 阅读(17138) 评论(1) 推荐(0)

Ollama系列---【如何离线安装ollama?】
摘要:1.环境 本文以centos7.9安装ollama为例 2.下载ollama安装包 官网地址:https://ollama.com/download/linux GitHub手动安装文档地址:https://github.com/ollama/ollama/blob/main/docs/linux. 阅读全文

posted @ 2025-01-08 11:50 少年攻城狮 阅读(13742) 评论(0) 推荐(0)

Ollama系列---【常用属性设置】
摘要:常用属性设置 OLLAMA_HOST=0.0.0.0 解决外网访问问题 OLLAMA_MODELS=E:\ollamamodels 解决windows模型默认下载C 盘的问题 OLLAMA_MODELS=/opt/app/middles/ollama/models 指定linux模型存储位置 OLL 阅读全文

posted @ 2025-01-08 01:32 少年攻城狮 阅读(2082) 评论(0) 推荐(0)

Ollama系列---【Ollama常用命令】
摘要:ollama常用命令 1.启动ollama服务 ollama serve 2.创建模型 (create) 使用 Modelfile 来创建一个新模型。你需要提供一个包含模型信息的 Modelfile。 ollama create /path/to/Modelfile 3.显示模型信息 (show) 阅读全文

posted @ 2025-01-08 01:16 少年攻城狮 阅读(22436) 评论(0) 推荐(2)

上一页 1 2

导航