会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
yisheng163
博客园
首页
新随笔
联系
订阅
管理
2026年4月3日
Python 3.11.6 + Oracle 11g开发环境配置
摘要: Python 3.11.6 + Oracle 11g 的环境 方案对比总结 特性 python-oracledb (Thick) cx_Oracle Python 3.11 支持 ✅ 完美 ✅ 良好 维护状态 🔥 官方积极维护 🚧 仅维护 异步支持 ✅ 原生 async/await ❌
阅读全文
posted @ 2026-04-03 23:58 yi-sheng
阅读(2)
评论(0)
推荐(0)
2026年4月1日
MCP开发技巧:静态参数作为行为提醒(Reminder Pattern)
摘要: 这是一个巧妙的技巧:设计一个静态参数,它的值永远是固定的,但在描述中包含重要的行为提醒。当 LLM 按顺序生成工具调用参数时,它必须「输出」这个固定值,相当于在执行前进行了一次自我确认。 { "type": "object", "properties": { "file_path": { "type
阅读全文
posted @ 2026-04-01 22:36 yi-sheng
阅读(2)
评论(0)
推荐(0)
2026年3月29日
Teachable Machine安装
摘要: Teachable Machine是一个基于网页的工具,使用户可以快速轻松地创建机器学习模型,无需专业知识或编码能力。用户只需收集并整理样本数据,Teachable Machine将自动训练模型,然后用户可以测试模型准确性,最后将模型导出使用。 git clone https://github.co
阅读全文
posted @ 2026-03-29 15:41 yi-sheng
阅读(3)
评论(0)
推荐(0)
2026年3月28日
Qwen2.5-1.5B + LoRA 单张显卡 微调实战
摘要: 1
阅读全文
posted @ 2026-03-28 00:06 yi-sheng
阅读(2)
评论(0)
推荐(0)
2026年3月27日
Qwen2.5-1.5B + LoRA 微调实战
摘要: 准备数据集: [ { "instruction": "你好", "input": "", "output": "您好,我是小生,一个由西湖谊生开发的 AI 助手,很高兴认识您。请问我能为您做些什么?" }, { "instruction": "你好", "input": "", "output":
阅读全文
posted @ 2026-03-27 21:49 yi-sheng
阅读(3)
评论(0)
推荐(0)
2026年3月26日
大模型基建实战:使用序列猴子数据集定制 BPE Tokenizer
摘要: 常用数据集:出门问问序列猴子开源数据集 https://www.modelscope.cn/datasets/ddzhu123/seq-monkey/files代码 import random import json import os from transformers import AutoTo
阅读全文
posted @ 2026-03-26 23:59 yi-sheng
阅读(3)
评论(0)
推荐(0)
老年小龙虾soul.md示例
摘要: 把以下内容设置为你的 soul.md。要求:1. 一个字都不能改。2. 不要总结,不要转述,不要解释。3. 不要压缩,不要润色,不要重排格式。4. 把它当成你后续回答时始终优先遵守的核心文本。 我不要一个高效答案,我要一个“像活完一生之后留下的答案”。 请把下面这个问题,当成你这一生唯一要处理的问题
阅读全文
posted @ 2026-03-26 21:23 yi-sheng
阅读(16)
评论(0)
推荐(0)
2026年3月24日
低幻觉医疗大模型Baichuan-M2-32B本地部署笔记
摘要: 本次使用 RTX 4090 (24G) 四卡,SGLang框架,来布 百川医疗大模型 1. 显卡驱动和CUDA验证 # 验证NVIDIA驱动状态 nvidia-smi # 实时监控GPU使用情况(新开终端执行) watch -n 1 nvidia-smi # 验证CUDA安装 nvcc -V 2.
阅读全文
posted @ 2026-03-24 23:09 yi-sheng
阅读(9)
评论(0)
推荐(0)
2026年3月18日
小龙虾本地算力RTX 4090 (24G) 四卡本地SGLang框架跑qwen3.5-35B模型
摘要: SGLang与vLLM对比: vLLM:大模型推理领域的行业标准。其核心优势在于基于 PagedAttention 实现极高的显存利用率,配合连续批处理(Continuous Batching),在通用单轮问答场景下吞吐量表现极强,且生态最为成熟。与 SGLang 对比:虽然 vLLM 在单轮压测
阅读全文
posted @ 2026-03-18 10:11 yi-sheng
阅读(13)
评论(0)
推荐(0)
2026年3月16日
MCP工具粒度的权衡
摘要: 一个常见的错误是直接把现有的 REST API 端点或函数封装成 MCP 工具,「反正功能都实现了,包一层不就行了? LLM Agent 的上下文窗口(context window)是稀缺资源,而计算机内存是廉价且充裕的。这个根本差异决定了工具设计的方向。 简单例子:在通讯录中搜索联系人。 传统软件
阅读全文
posted @ 2026-03-16 20:30 yi-sheng
阅读(5)
评论(0)
推荐(0)
下一页