微调最难的不是算法,而是“跑通全流程”。首次微调应聚焦简单目标:让模型回答更规范、语气更一致。避免复杂数据与环境折腾。loss下降不等于成功,关键看输出是否按预期改变。跑通一次,复盘流程,才是真正入门。 ...
简介 langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。 环境配置 安装langchain框架 pip install langchain langchain-community 其中langcha ...
为什么 PPO 在真实业务里越来越重要 如果你是从论文或者课程里接触 PPO 的,那大概率会有一种“这东西看起来很厉害”的感觉。策略梯度、clip、KL 约束、reward model,一整套体系下来,很容易让人产生错觉:只要把 PPO 跑起来,大模型就能被“精细打磨”。 但真正进到业务里,你会发现 ...
向量数据库技术内核:从存储到检索,拆解其高效运作的秘密 写在前面:我也是“被向量数据库名词轰炸”过的人 说实话,我第一次接触向量数据库的时候,是有点抗拒的。 那会儿各种文章都在说: 向量数据库是 AI 时代的“新型基础设施” 没有向量数据库,大模型就跑不起来 它彻底改变了传统数据库的范式 结果我真正 ...
从零开始:PPO 微调大模型实战(基于 PyTorch) PPO 真正难的,不是算法本身 如果你已经看过一些 PPO 的原理文章,大概率会有过这种感觉: 好像每个字都认识,但真让我自己写代码,脑子还是一片空白。 这其实挺正常的。 至少我第一次准备动手写 PPO 的时候,也是这种状态。 问题不在你,而 ...
Page Attention是优化KV-cache内存管理的方法,可解决预留浪费、内部及外部内存碎片化问题,通过将KV-cache划分为固定大小Block,利用Block Table维护逻辑与物理映射,有效管理非连续内存;同时处理Softmax计算中的数值溢出与全局信息问题。vllm框架支持离线与在... ...
但当你真的把 RAG 从 Demo 推到生产,会发现三个问题几乎一定会出现:
文档一多,检索明显变慢
明明文档里有答案,模型却“搜不到”
本地 + 向量库 + 模型 + 服务,部署复杂度飙升
这篇文章不会再重复“RAG 是什么”这种内容,而是围绕一个真实企业级目标展开:
在 10 万级文档规模下... ...
大模型微调评测入门:看懂这些指标,才知道模型好不好 从“瞎评”到“精准评”:大模型微调核心评测指标全拆解 大家好,我是七七!最近后台收到很多粉丝的共性提问:“我用LoRA微调了Llama 2 7B模型做情感分析,怎么判断它好不好用?”“微调后的文案生成模型,凭感觉比原版好,但是怎么证明?” 这其实戳 ...
大模型微调的GPU选型,核心是“匹配场景+平衡成本”——个人追求性价比,团队兼顾稳定性,企业看重规模化。今天这篇文章,我就从三类GPU的核心差异、适配场景、实操选型三个维度,用大白话讲透选择逻辑,附实测数据和选型步骤,帮你不管是个人入门还是企业落地,都能选到最适合的GPU。 ...
不管是16G显卡的个人开发者,还是预算有限的小团队、追求ROI的企业,算力成本控制都是大模型落地的核心必修课。今天这篇文章,我就从微调、推理两个核心环节,拆解成本控制的底层逻辑和实操技巧,附16G显卡可直接套用的代码,帮你在不牺牲效果的前提下,把算力成本砍到最低。 ...
大模型从“瞎聊”到“干活”:指令微调核心逻辑全拆解 指令微调破局,让大模型从 “瞎聊” 变 “能干” 大家好,我是七七!刚入门大模型时,我总被一个问题困扰:明明Llama 2、Qwen这些模型能聊天说地,可一让它干具体活就掉链子——让它写电商文案,通篇空话套话;让它整理会议纪要,逻辑混乱漏重点;让它 ...
背景与动机 现代软件项目广泛依赖开源库以避免重复开发,但库版本更新常引入破坏性变更,导致代码兼容性问题。手动适配这些更新需消耗大量开发者时间,且大型代码库中开发者易忽视更新警告或锁定旧版本,长期阻碍功能迭代、性能优化与安全修复。现有自动化方案未被广泛采用,而 LLM 在代码生成、程序修复等领域已展现 ...
5分钟掌握开源大模型选型核心:模型规模、任务适配性、许可协议、生态完善度四大维度,结合硬件与需求,16G显卡也能精准匹配Qwen、Mistral等模型,避坑提效,新手必看! ...
告别盲目试错!大模型微调核心参数的“油门、档位与里程 (一)引言:参数没调对,微调全白费 大家好,我是七七!刚入门大模型微调时,我踩过最致命的坑就是“瞎调参数”——拿着7B模型,随便设个学习率、batch_size就跑训练,结果要么模型不收敛(损失一动不动),要么显存直接炸了,折腾两三天都没调出正经 ...
慢思考的本质依然是通过生成更多的显性 Token 来换取计算时间。为了想得深,必须说得多。这一章的四篇论文都在尝试:能否在不输出废话的情况下,让模型在内部“空转”思考? 甚至打破自回归全局规划? ...
通义深度搜索Deep Research领域的核心技术突破与落地,结合多种专业模型和工具完成复杂问题拆解、分析、规划、结合预期格式与模板,以图文并茂方式创作生成最终调研报告。 ...
零售业的AI变革十字路口全球零售业正伫立于一个由人工智能(AI)、宏观经济不确定性与消费者行为结构性转变共同驱动的转型期。这并非简单的周期性波动,而是一场根本性的范式转移,其核心体现为两种截然不同的进化路径:成熟的全球市场正致力于优化现有商业模式以应对外部宏观经济的逆风,而高速迭代的中国市场则在内部 ...
在大模型落地场景中,本地轻量化部署因低延迟、高隐私性、无需依赖云端算力等优势,成为开发者与 AI 爱好者的热门需求。本文聚焦 Windows 10/11(64 位)环境,详细拆解 llama.cpp 工具的编译流程(支持 CPU/GPU 双模式,GPU 加速需依赖 NVIDIA CUDA),并指导如... ...
基于GEM的需求评审专家agent 之前有文章AI辅助需求规格描述评审,优化需求评审流程论LLM与人工审查协同模式。 以下是我们基于Google Gem,目前支持上传附件,如我们项目与产品需求文档直接上传评审。需求功能列表补全从这访问gemini.google.com今天先到这儿,希望对AI,云原生 ...
目录为什么选择 Dify + OllamaOllama 本地部署Dify 本地容器化部署模型接入与知识库 RAG 构建准备 Embedding 模型在 Dify 中添加 Ollama 模型供应商构建知识库检索测试构建智能体应用创建应用编排界面概览查询预处理关联知识库编写提示词调整模型参数调试与发布P ...