随笔分类 -  18.Python/ML/AI

摘要:spring-ai 学习系列(5)-MCP(webflux sse)前面学习了stdio模式的MCP使用,可以看到这种方式局限性比较大,mcp host/mcp client/mcp server通常要在同1台机器上,使用进程间通讯。更常见的做法是,大家各自部署自己的mcp server,就象常规后端http api一样,想部署在哪都行,只要http能访问即可。 一 阅读全文
posted @ 2025-07-12 22:43 菩提树下的杨过 阅读(679) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(4)-MCP 处理过程分析上一节,通过1个最基本的MCP Server/Client示例,初步了解了MCP的用法.STDIO模式下,client与server同在1台机器上,client会创建1个子进程来启动server,然后使用json rpc来做为约定的消息格式进行通讯。 如果想知道交互过程中的json原文,可以下载 h 阅读全文
posted @ 2025-07-12 16:33 菩提树下的杨过 阅读(497) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(3)-MCP(stdio)使用spring-ai创建1个MCP Server很容易,下面演示MCP(stdio模式)的写法: 一、添加依赖项 1 <dependency> 2 <groupId>org.springframework.ai</groupId> 3 <artifactId>spring-ai-starter-m 阅读全文
posted @ 2025-07-10 19:37 菩提树下的杨过 阅读(543) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(2)-调用远程deepseek上一节学习了spring-ai调用本地ollama,这次继续学习调用远程deepseek 一、pom依赖调整 加入openai的依赖 1 <dependency> 2 <groupId>group.springframework.ai</groupId> 3 <artifactId>spring-a 阅读全文
posted @ 2025-07-10 09:04 菩提树下的杨过 阅读(386) 评论(0) 推荐(0)
摘要:spring-ai 学习系列(1)-调用本地ollamaspring-ai框架为java程序员快速融入AI大潮提供了便利,下面演示如何调用本地deepseek模型 一、安装ollama https://www.ollama.com/ 首页下载安装即可 选择适合的模型,pull到本地,个人电脑建议选择deepseek-r1:7b或1.5b 启动模型 oll 阅读全文
posted @ 2025-07-06 23:07 菩提树下的杨过 阅读(653) 评论(0) 推荐(0)
摘要:全自助使用Cursor生成的DeepSeek Demo java 项目今天尝试用cursor全自助生成了1个spring boot调用ollama(本地模型) +远程deepseek的示例项目。 效果图: .. 主要特性(摘自Readme.md,其实也是 Cursor生成的) 🎯 项目特色 🤖 双AI支持: 同时支持本地Ollama和远程DeepSeek两种AI提 阅读全文
posted @ 2025-06-29 00:04 菩提树下的杨过 阅读(156) 评论(0) 推荐(0)
摘要:transformer小白入门transformer库是huggingface发布的1个框架,非常好用,很多外行看起来高大上的问题,用它都可以轻松解决,先来看1个小例子: 一、情感分析 from transformers import pipeline classifier = pipeline('sentiment-analy 阅读全文
posted @ 2023-08-20 16:05 菩提树下的杨过 阅读(1530) 评论(0) 推荐(0)
摘要:利用text-generation-webui快速搭建chatGLM2/LLAMA2大模型运行环境text-generation-webui 是一个基于Gradio的LLM Web UI开源项目,可以利用其快速搭建各种文本生成的大模型环境。 一、安装 text-generation-webui的readme其实已写得相当详细了,这里就不再重复,只说1个可能存在的坑: 安装 peft 安装卡住 r 阅读全文
posted @ 2023-08-19 17:51 菩提树下的杨过 阅读(4433) 评论(0) 推荐(0)
摘要:chatglm.cpp使用手记目前绝大多数LLM模型都是python实现的,运行速度有限(包括ChatGLM2-6b),幸好有大神将其用C++重写了一遍,让运行速度大大提高。 项目地址:li-plus/chatglm.cpp: C++ implementation of ChatGLM-6B & ChatGLM2-6B (git 阅读全文
posted @ 2023-08-12 23:41 菩提树下的杨过 阅读(6333) 评论(1) 推荐(0)
摘要:ubuntu上搭建ChatGLM2-6b环境及ptuing微调训练的坑清华大学的chatGLM2-6B可以说是目前亚洲唯一能打的对中文支持不错的LLM大模型,网上已经有很多介绍如何在本机搭建环境的文章,就不再重复了,这里记录下最近踩的一些坑: 1、为啥要使用ubuntu? chatGLM2-6b项目里有很多.sh文件,在windows下正常运行通常要折腾一番,最后能不 阅读全文
posted @ 2023-07-30 22:42 菩提树下的杨过 阅读(855) 评论(1) 推荐(1)
摘要:pandas速成笔记(5)-快速分析平均值、总和接上篇继续,记得小时候读书那会儿,还没有双减,每次考试完,大家最关心的就是全班的成绩分布,假如有下面一张成绩表: 老师们通常很快就会算出『平均分、总分』这些关键指标,然后各班之间,就开始攀比: 当然,这些在Excel里用SUM/AVERAGE函数,再结合自动填充很容易实现,pandas里要如何类似统 阅读全文
posted @ 2022-03-20 20:20 菩提树下的杨过 阅读(789) 评论(0) 推荐(0)
摘要:pandas速成笔记(4)-数据图表接上篇继续,做数据分析,各种数据图表是必不可少的,还是以下面这张表为例: 一、单列柱状图 假设要把9月份,A、B这2个分类的Amount提取出来画一个柱状图,可以这么做: import pandas as pd import matplotlib.pyplot as plt df = pd.read 阅读全文
posted @ 2022-03-20 18:44 菩提树下的杨过 阅读(354) 评论(0) 推荐(0)
摘要:pandas速成笔记(3)-join/groupby/sort/行列转换接上篇继续 ,这回看下一些常用的操作: 一、join 联表查询 有数据库开发经验的同学,一定对sql中的join ... on 联表查询不陌生,pandas也有类似操作 假设test.xlsx的sheet1, sheet2中分别有下面的数据(相当于2张表) 现在要以ID做为作为Key,将二张表joi 阅读全文
posted @ 2022-03-19 22:24 菩提树下的杨过 阅读(488) 评论(0) 推荐(0)
摘要:pandas速成笔记(1)-环境搭建及excel读取工作中经常会遇到一些excel的数据分析工作,虽然本身excel本身有非常强大的功能,但如果需要将一些数据分析结果集成在自己的项目中,excel就显示有些不方便了(总不能每次在excel里做好图表,再截图贴进来吧),幸好python的生态圈足够强大,有pandas这种利器,能以编程的方式,方便快捷的 阅读全文
posted @ 2022-03-13 16:35 菩提树下的杨过 阅读(592) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-04-14 09:52 菩提树下的杨过 阅读(1358) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-03-24 20:59 菩提树下的杨过 阅读(1441) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-03-24 19:47 菩提树下的杨过 阅读(835) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-03-17 14:18 菩提树下的杨过 阅读(742) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-03-17 12:46 菩提树下的杨过 阅读(1006) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-02-24 22:38 菩提树下的杨过 阅读(778) 评论(0) 推荐(0)