摘要: 一、前置准备:环境与依赖 Milvus 环境要求 版本:milvus_2.6.9 Python 依赖安装 pip install pymilvus==2.5.0 二、核心知识点:Milvus RBAC 权限体系 核心概念 角色(Role):权限的集合,如 test_role 权限(Privilege 阅读全文
posted @ 2026-02-12 11:21 万笑佛 阅读(1) 评论(0) 推荐(0)
摘要: AI应用中为什么要用到向量?要解答这个问题就要先搞清楚什么是向量?向量能干什么?最后我们为什么选择milvus向量数据库? 先说最关键的他能够进行语义相似度检索,这跟大语言模型的特点非常贴切,所有他们是最佳拍档。 一、向量是什么? 向量(Vector)在数学和计算机科学中有不同层次的含义: 数学定义 阅读全文
posted @ 2026-02-11 10:21 万笑佛 阅读(16) 评论(0) 推荐(0)
摘要: 讲到这不得不讲向量了,我们开始向量数据库的学习,掌握了向量的使用才能更好的开发AI应用,向量库讲完后将结合向量和大模型配合开发AI应用。 今天大家先把环境搭建好,如下是资料和部署方法。 注:还不会docker的小伙伴看看以前发布的docker博客,先学习一下 相关资料下载(免费): 老虎网盘资源 搜 阅读全文
posted @ 2026-02-10 11:20 万笑佛 阅读(4) 评论(0) 推荐(0)
摘要: 有的时候xml格式也是开发中是比较普遍的数据格式,如何让大模型返回的数据是标准的xml格式? 看如下代码: from langchain.prompts import PromptTemplate from langchain_openai import ChatOpenAI from langch 阅读全文
posted @ 2026-02-09 10:34 万笑佛 阅读(103) 评论(0) 推荐(0)
摘要: 关键点来了,现在json格式是开发中是最为普遍的数据格式,尤其在前后端交互中应用十分广泛,如何让大模型返回的数据是标准的json格式? 看如下代码: from langchain.prompts import PromptTemplate from langchain_openai import C 阅读全文
posted @ 2026-02-06 10:40 万笑佛 阅读(159) 评论(0) 推荐(0)
摘要: 跟上一篇内容一样,这次我们来看如何限定大模型返回的结果值是枚举类型的。 先看代码: # 导入必要的模块 from langchain.prompts import PromptTemplate # 用于创建和管理提示模板 from langchain_openai import ChatOpenAI 阅读全文
posted @ 2026-02-05 10:57 万笑佛 阅读(189) 评论(0) 推荐(0)
摘要: 如何让大模型返回的结果是一个标准的日期格式? 如下这段代码展示了如何使用 LangChain 构建一个结构化输出链(chain),将自然语言问题(“中华人民共和国是什么时候创立的?”)通过大语言模型(LLM)转换为标准的 Python datetime 对象 from langchain.promp 阅读全文
posted @ 2026-02-04 11:52 万笑佛 阅读(222) 评论(0) 推荐(1)
摘要: 大模型输出结果通常都是文本信息,如何让他按照你期望的格式输出? 这段代码演示了如何使用LangChain将大语言模型的自由文本输出转换为结构化的字符串列表。核心目标是让模型返回逗号分隔的多个值,并通过专用解析器自动拆分为Python列表。 CommaSeparatedListOutputParser 阅读全文
posted @ 2026-02-03 13:30 万笑佛 阅读(249) 评论(0) 推荐(0)
摘要: 在AI应用中,缓存机制的经济价值不仅节省Token成本,还能消除用户等待焦虑、提升系统吞吐量、保障服务稳定性——这才是企业级应用的真正痛点。 当用户提出一个常见问题时,首次调用大模型需要经历网络传输、排队等待、模型推理等完整链路,响应时间通常在1至3秒。这个时长已超过人类对“流畅交互”的心理阈值(2 阅读全文
posted @ 2026-02-02 10:51 万笑佛 阅读(230) 评论(0) 推荐(0)
摘要: 想象一下,你现在是一家大型电商平台的AI架构师。双十一期间,你的智能客服系统每天要处理千万级的用户咨询。每个问题都要调用昂贵的GPT-API,响应慢、成本高,用户投诉飙升……这时候,你会怎么做?" "我们会发现一个奇怪的现象——每天有30%的问题是完全相同的!用户都在问:'快递几天能到?'、'怎么退 阅读全文
posted @ 2026-01-30 11:19 万笑佛 阅读(269) 评论(0) 推荐(0)