本文详细介绍通义深度搜索的操作指南,含应用开通,应用管理,应用配置,场景选择,检索配置,应用测试,应用发布,联系我们等。 ...
RAG项目常败在文档切分:切得过小导致语义断裂,固定长度破坏表格/列表/步骤等关键结构。真正决定效果的,不是模型或向量库,而是chunk是否具备“语义完整性”——能否独立支撑答案。切分应以“生成可用性”为第一标准,而非检索便利性。 ...
本文介绍如何通过Java SDK获取已创建的Collection的状态和Schema信息。 前提条件 已创建Cluster 已获得API-KEY 已安装最新版SDK 接口定义 Java // class DashVectorClient public Response<CollectionMeta> ...
RAG并非万能,默认滥用反致系统复杂、效果难测。它仅解决“信息获取”,不提升模型能力。最适合四类场景:动态知识更新、需答案溯源、长尾问题密集、需求尚不明确。慎用于强推理、隐性经验、高实时性及高确定性要求场景。核心判断:问题是“找不到信息”,还是“不会处理信息”? ...
随着 AI 应用进入规模化阶段,时序模型的挑战,正逐步从算法本身,扩展到数据与基础设施层面。 训练越来越重、数据越来越多、部署越来越复杂—— 你是否也在思考: ❓时序模型训练,如何摆脱数据准备与 I/O 瓶颈? ❓多个模型版本,如何统一管理、部署与复用? ❓从模型训练到线上应用,如何真正跑在一个稳定 ...
微调不是“温和调教”,而是将敏感信息固化进模型参数的风险交换过程。它会放大偶然数据中的隐私隐患,导致过拟合式泄露、隐式模式记忆与不可撤回的记忆固化。安全边界模糊,内部使用反而更易触发风险。真正可控的路径:先RAG,再小步微调,始终以风险而非效果为决策核心。 ...
写在前面 你是不是也遇到过这种情况:昨天用 Claude Code 写了一段复杂业务逻辑,今天重新打开项目,AI 助手却像失忆了一样,完全不记得你们讨论过什么,只能从头再解释一遍? 这个痛点,Claude-Mem 给出了解决方案——一个专为 Claude Code 打造的持久化记忆系统,让 AI 助 ...
当前,生成式人工智能大模型快速普及,其安全可控性直接关系国家安全、社会公共利益及公民合法权益。根据国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》(国家互联网信息办公室令第15号)第十七条明确要求,“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定 ...
在 AI 模型不断发展升级的背景下,Claude 4.5 系列带来了 Sonnet、Opus 和 Haiku 三款子模型,每个模型都有其独特的优势和适用场景。尤其是 Opus 4.5,它以其强大的推理能力和响应速度在复杂任务中脱颖而出。 但对于脚本创作者来说,如何在 推理精度 与 响应速度 之间找到 ...
中国智能体应用的行业全貌,核心逻辑是 “基础治理缺失制约落地,技术 + 方法论双轮驱动破局”,以下是分层解读:行业现状:“热市场” 与 “冷落地” 的矛盾突出市场热度高:涌入智能体领域的厂商数量庞大,反映出行业对智能体的商业化潜力预期较高。 落地成效差:大多数企业的智能体应用未能有效落地,暴露出技术 ...
简介 AI Agent 不仅仅是一个能聊天的机器人(如普通的 ChatGPT),而是一个能够感知环境、进行推理、自主决策并调用工具来完成特定任务的智能系统,更够完成更为复杂的AI场景需求。 AI Agent 功能 根据查阅的资料,agent的功能点如下: Agent = LLM + 规划 + 记忆 ...
大模型微调常遇“显存不够”,但根源常被误判:显存主要消耗在激活值(activation)、优化器状态(如Adam×3)和梯度上,而非模型参数本身。bf16仅减存储不减数量,checkpointing、梯度累积等是有效优化手段。显存问题本质是系统认知问题,而非硬件不足。 ...
简介 LLM大模型一般训练的数据都是滞后的,这是就需要用到RAG知识库,RAG知识库可以降低大模型在输出答案时的幻觉,也能够让大模型知识拓展。 知识库架构知识 检索流程图 用户输入 (User Query) | v + + | 提示词 (Prompt) | + + | | (1) 转化为向量 (Em ...
微调跑通≠成功!训练是确定性工程,评估才是核心认知挑战:loss不反映真实效果,人工评估难但不可替代。关键在明确定义“何为更好”,用固定对照集+对比输出持续校准目标,让评估成为理解模型行为的迭代过程。 ...
钉钉A1与飞书AI录音豆的全面对比分析表。从整体定位来看,两款产品分别深度绑定各自办公生态,面向职场会议场景,但在设计理念和功能侧重上有明显差异:核心差异总结对比维度钉钉A1飞书AI录音豆设计哲学性能优先:强调专业级录音质量和大容量存储便携优先:极致轻薄,无感佩戴,快速响应拾音能力6麦阵列+骨传导, ...
loss 在微调里不是没用,而是作用范围被严重高估了。它能告诉你“训练有没有在跑”,却几乎无法告诉你“模型有没有变成你想要的样子”。如果你把 loss 当成主要决策依据,那你很可能会在一条看起来很平滑的曲线上,慢慢把模型带偏。真正成熟的微调过程,永远是:loss 作为底线保障,输出评估作为核心依据 ...
微调最难的不是算法,而是“跑通全流程”。首次微调应聚焦简单目标:让模型回答更规范、语气更一致。避免复杂数据与环境折腾。loss下降不等于成功,关键看输出是否按预期改变。跑通一次,复盘流程,才是真正入门。 ...
简介 langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。 环境配置 安装langchain框架 pip install langchain langchain-community 其中langcha ...
为什么 PPO 在真实业务里越来越重要 如果你是从论文或者课程里接触 PPO 的,那大概率会有一种“这东西看起来很厉害”的感觉。策略梯度、clip、KL 约束、reward model,一整套体系下来,很容易让人产生错觉:只要把 PPO 跑起来,大模型就能被“精细打磨”。 但真正进到业务里,你会发现 ...
向量数据库技术内核:从存储到检索,拆解其高效运作的秘密 写在前面:我也是“被向量数据库名词轰炸”过的人 说实话,我第一次接触向量数据库的时候,是有点抗拒的。 那会儿各种文章都在说: 向量数据库是 AI 时代的“新型基础设施” 没有向量数据库,大模型就跑不起来 它彻底改变了传统数据库的范式 结果我真正 ...