会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
10
11
12
13
14
15
16
17
18
···
144
下一页
2025年8月5日
使用 BAML 模糊解析改进 LangChain 知识图谱提取:成功率从25%提升到99%
摘要: 在构建基于知识图谱的检索增强生成(RAG)系统或智能代理时,从非结构化数据中准确提取节点和关系是一项核心挑战。特别是在使用经过量化处理的小型本地大语言模型(LLM)时,这一问题尤为突出,往往导致整体系统性能显著下降。LangChain 提取框架的主要限制在于其对严格 JSON 解析的依赖,即使采用大
阅读全文
posted @ 2025-08-05 19:46 deephub
阅读(28)
评论(0)
推荐(0)
2025年8月4日
TorchDynamo源码解析:从字节码拦截到性能优化的设计与实践
摘要: 本文深入解析PyTorch中TorchDynamo的核心架构和实现机制,通过PyTorch源码分析和关键文件导览,为开发者提供在Dynamo基础上设计扩展功能或新特性的技术指南。 TorchDynamo是PyTorch生态系统中的Python级即时编译器(JIT Compiler),其核心功能是通过
阅读全文
posted @ 2025-08-04 19:40 deephub
阅读(24)
评论(0)
推荐(0)
2025年8月3日
NSA稀疏注意力深度解析:DeepSeek如何将Transformer复杂度从O(N²)降至线性,实现9倍训练加速
摘要: 当前人工智能模型在处理长序列任务时面临着根本性的计算瓶颈。无论是分析完整的法律文档、处理大型代码仓库,还是进行长篇对话,现有模型都受到Transformer架构中注意力机制的限制——其计算复杂度随序列长度呈二次增长( O(N²) ),导致计算和内存需求超出可承受范围。 简单的O(N²)注意力机制,为
阅读全文
posted @ 2025-08-03 19:39 deephub
阅读(26)
评论(0)
推荐(0)
2025年8月2日
从零开始构建AI Agent评估体系:12种LangSmith评估方法详解
摘要: AI Agent 的评估需要全面考虑其完整的生命周期,从开发阶段到生产部署。评估过程应当涵盖多个关键维度:最终输出的事实准确性和实用价值、推理过程中工具选择的合理性和路径效率、结构化响应生成能力(如 JSON 格式)、多轮对话的上下文维持能力,以及在真实用户流量下的持续性能表现和错误监控能力。 为了
阅读全文
posted @ 2025-08-02 20:10 deephub
阅读(42)
评论(0)
推荐(0)
2025年8月1日
GSPO:Qwen让大模型强化学习训练告别崩溃,解决序列级强化学习中的稳定性问题
摘要: 这是7月份的一篇论文,Qwen团队提出的群组序列策略优化算法及其在大规模语言模型强化学习训练中的技术突破 大规模强化学习的稳定性挑战 强化学习(Reinforcement Learning, RL)已成为构建先进大语言模型(Large Language Models, LLMs)的核心技术环节。通过
阅读全文
posted @ 2025-08-01 18:37 deephub
阅读(103)
评论(0)
推荐(0)
2025年7月31日
解决提示词痛点:用AI智能体自动检测矛盾、优化格式的完整方案
摘要: 本文介绍了一个基于用户意图进行提示词优化的项目,该项目能够将预期用途与理想模型进行精确匹配。这种多智能体解决方案通过自动化处理,显著提升了提示词优化的可扩展性,有效减少了人工干预,特别适用于复杂的少样本学习场景。 近期,Andreessen Horowitz将研究定义为生成式AI的变革性应用场景,这
阅读全文
posted @ 2025-07-31 19:29 deephub
阅读(21)
评论(0)
推荐(0)
2025年7月30日
从训练到推理:Intel Extension for PyTorch混合精度优化完整指南
摘要: PyTorch作为当前主流的深度学习框架,在计算机视觉和自然语言处理领域得到了广泛应用。其动态计算图机制为构建复杂的深度神经网络提供了灵活性,同时支持CPU和GPU的异构计算环境。 Intel Extension for PyTorch作为官方扩展,专门针对Intel硬件平台进行了深度优化。该扩展不
阅读全文
posted @ 2025-07-30 20:08 deephub
阅读(19)
评论(0)
推荐(0)
2025年7月29日
MoR vs MoE架构对比:更少参数、更快推理的大模型新选择
摘要: Google DeepMind 近期发布了关于递归混合(Mixture of Recursion)架构的研究论文,这一新型 Transformers 架构变体在学术界和工业界引起了广泛关注。该架构通过创新的设计理念,能够在保持模型性能的前提下显著降低推理延迟和模型规模。本文将深入分析递归混合(MoR
阅读全文
posted @ 2025-07-29 18:59 deephub
阅读(41)
评论(0)
推荐(0)
2025年7月28日
搜索结果太乱?5种重排序模型让你的搜索系统准确率提升40%
摘要: 在构建企业级搜索引擎时,工程师们经常面临这样的挑战:初始检索系统虽然能够返回大量潜在相关文档(通常在1000个左右),但真正符合用户需求的高质量结果往往被淹没在海量数据中,可能散布在结果列表的任意位置。这种现象在现代搜索引擎、推荐系统以及检索增强生成(RAG)应用中普遍存在,严重影响了用户体验和系统
阅读全文
posted @ 2025-07-28 18:54 deephub
阅读(34)
评论(0)
推荐(0)
2025年7月27日
LLM开发者必备:掌握21种分块策略让RAG应用性能翻倍
摘要: 检索增强生成(Retrieval-Augmented Generation, RAG)是当前AI工程师在实际应用中面临的重要技术挑战之一。从理论角度来看,RAG的工作原理相对直观:从自定义数据源中检索相关上下文,然后基于这些上下文让大语言模型生成对应的回答。 在实际部署过程中,开发者往往需要处理大量
阅读全文
posted @ 2025-07-27 19:03 deephub
阅读(17)
评论(0)
推荐(0)
上一页
1
···
10
11
12
13
14
15
16
17
18
···
144
下一页
公告