07 2025 档案

摘要:langchain4j 学习系列(1)-ollama本地调用langchain4j是比spring-ai更早出现的大模型相关工程开源框架,社区成熟,活跃度高。下面演示如何用langchain4j调用本地ollama 一、核心pom依赖 1 <!-- LongChain4j Core --> 2 <dependency> 3 <groupId>dev.lang 阅读全文
posted @ 2025-07-20 17:00 菩提树下的杨过 阅读(469) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(8)-上下文记忆-多轮对话继续spring-ai学习之旅,大模型本身是无状态的,也就是每次请求对它来说,都是全新的,无记忆!比如:我们以ollama本地加载qwen3:0.6b模型为例,依次问它以下三个问题: 有1个变量A,它的值是5,那么A加1后,变成几? A再乘上3,结果是多少? A再减1,现在是多少? 直接用postm 阅读全文
posted @ 2025-07-20 11:08 菩提树下的杨过 阅读(458) 评论(1) 推荐(0)
摘要:spring-ai 学习系列(7)-MCP 安全认证继续先前的MCP学习,实际企业级应用中,很多信息都是涉及商业敏感数据,需要考虑安全认证,不可能让MCP Server在网上裸奔。spring web开发中,提供了拦截器功能,最简单的思路,在Client连接到Server的sse时,拦截请求,检测http header头中,是否有必要的token信息 阅读全文
posted @ 2025-07-13 12:17 菩提树下的杨过 阅读(540) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(6)-文生图继续来学习spring-ai如何实现“文生图” 一、pom依赖 1 <dependency> 2 <groupId>org.springframework.ai</groupId> 3 <artifactId>spring-ai-starter-model-zhipuai</artifactId> 阅读全文
posted @ 2025-07-12 23:20 菩提树下的杨过 阅读(328) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(5)-MCP(webflux sse)前面学习了stdio模式的MCP使用,可以看到这种方式局限性比较大,mcp host/mcp client/mcp server通常要在同1台机器上,使用进程间通讯。更常见的做法是,大家各自部署自己的mcp server,就象常规后端http api一样,想部署在哪都行,只要http能访问即可。 一 阅读全文
posted @ 2025-07-12 22:43 菩提树下的杨过 阅读(538) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(4)-MCP 处理过程分析上一节,通过1个最基本的MCP Server/Client示例,初步了解了MCP的用法.STDIO模式下,client与server同在1台机器上,client会创建1个子进程来启动server,然后使用json rpc来做为约定的消息格式进行通讯。 如果想知道交互过程中的json原文,可以下载 h 阅读全文
posted @ 2025-07-12 16:33 菩提树下的杨过 阅读(410) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(3)-MCP(stdio)使用spring-ai创建1个MCP Server很容易,下面演示MCP(stdio模式)的写法: 一、添加依赖项 1 <dependency> 2 <groupId>org.springframework.ai</groupId> 3 <artifactId>spring-ai-starter-m 阅读全文
posted @ 2025-07-10 19:37 菩提树下的杨过 阅读(417) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(2)-调用远程deepseek上一节学习了spring-ai调用本地ollama,这次继续学习调用远程deepseek 一、pom依赖调整 加入openai的依赖 1 <dependency> 2 <groupId>group.springframework.ai</groupId> 3 <artifactId>spring-a 阅读全文
posted @ 2025-07-10 09:04 菩提树下的杨过 阅读(346) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(1)-调用本地ollamaspring-ai框架为java程序员快速融入AI大潮提供了便利,下面演示如何调用本地deepseek模型 一、安装ollama https://www.ollama.com/ 首页下载安装即可 选择适合的模型,pull到本地,个人电脑建议选择deepseek-r1:7b或1.5b 启动模型 oll 阅读全文
posted @ 2025-07-06 23:07 菩提树下的杨过 阅读(545) 评论(0) 推荐(0)