会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
9
···
139
下一页
2025年9月19日
SAPO去中心化训练:多节点协作让LLM训练效率提升94%
摘要: Swarm sAmpling Policy Optimization,简称SAPO,这个名字听起来有点学术,但它解决的问题很实际。大规模语言模型的后训练一直是个让人头疼的事情——要么资源不够,要么效率太低。SAPO提出了一种去中心化的异步RL方案,让各个计算节点之间可以互相分享rollouts,避开
阅读全文
posted @ 2025-09-19 20:33 deephub
阅读(6)
评论(0)
推荐(0)
2025年9月18日
为你的数据选择合适的分布:8个实用的概率分布应用场景和选择指南
摘要: 拿到数据想建模,但不知道用哪个分布?大部分教科书都在讲一堆你永远用不到的东西。实际工作中,你只需要掌握几个核心分布,然后知道什么时候该用哪个就够了。 这里是我在做分析、实验设计、风险建模时真正会用的8个分布。每个都会告诉你使用场景、快速拟合方法、需要避开的坑,以及现成的代码。 https://avo
阅读全文
posted @ 2025-09-18 21:07 deephub
阅读(34)
评论(0)
推荐(0)
2025年9月17日
AI智能体开发实战:从提示工程转向上下文工程的完整指南
摘要: 还记得去年各大公司给提示工程师开出30万美元年薪的疯狂时期吗?现在这些招聘信息基本销声匿迹了。从技术角度看,提示工程确实有些"投机取巧"的意味——本质上就是让人们相信自己在做"工程"工作的华丽包装。 不过现在情况完全不同了。人们开始把传统软件工程的严谨方法和大语言模型的能力结合起来。这篇文章会深入探
阅读全文
posted @ 2025-09-17 20:49 deephub
阅读(4)
评论(0)
推荐(0)
2025年9月16日
用Context Offloading解决AI Agent上下文污染,提升推理准确性
摘要: 说到上下文工程,其实就是在合适的时机把AI需要的所有东西都给它——指令、示例、数据、工具、历史记录,全部打包塞到模型的输入上下文里。 这么理解会比较直观:语言模型就像CPU,上下文窗口就是工作内存。我们要做的就是往这块内存里装合适比例的代码、数据和指令,让模型能把事情做对。 上下文的来源很多:用户的
阅读全文
posted @ 2025-09-16 21:40 deephub
阅读(12)
评论(0)
推荐(0)
2025年9月15日
从零搭建RAG应用:跳过LangChain,掌握文本分块、向量检索、指代消解等核心技术实现
摘要: RAG(检索增强生成)本质上就是给AI模型外挂一个知识库。平常用ChatGPT只能基于训练数据回答问题,但RAG可以让它查阅你的专有文档——不管是内部报告、技术文档还是业务资料,都能成为AI的参考资源。 很多人第一反应是用LangChain或LlamaIndex这些现成框架,确实能快速搭起来。但自己
阅读全文
posted @ 2025-09-15 18:33 deephub
阅读(12)
评论(0)
推荐(0)
2025年9月14日
机器人逆运动学进阶:李代数、矩阵指数与旋转流形计算
摘要: 做机器人逆运动学(IK)的时候,你迟早会遇到矩阵指数和对数这些东西。为什么呢?因为计算三维旋转的误差,不能简单地用欧氏距离那一套,那只对位置有效。旋转得用另一套方法——你需要算两个旋转矩阵之间的差异,这就涉及到矩阵对数了。 这篇文章就是要把这事儿说清楚:从旋转矩阵构成的李群开始,到流形和切空间,再到
阅读全文
posted @ 2025-09-14 20:43 deephub
阅读(10)
评论(0)
推荐(0)
2025年9月13日
Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节
摘要: 对于神经网络来说,我们已经习惯了层状网络的思维:数据进来,经过第一层,然后第二层,第三层,最后输出结果。这个过程很像流水线,每一步都是离散的。 但是现实世界的变化是连续的,比如烧开水,谁的温度不是从30度直接跳到40度,而是平滑的上生。球从山坡滚下来速度也是渐渐加快的。这些现象背后都有连续的规律在支
阅读全文
posted @ 2025-09-13 20:41 deephub
阅读(14)
评论(0)
推荐(0)
2025年9月12日
AI Agent工作流实用手册:5种常见模式的实现与应用,助力生产环境稳定性
摘要: 很多人认为使用AI Agent就是直接扔个提示词过去,然后等结果。做实验这样是没问题的,但要是想在生产环境稳定输出高质量结果,这套玩法就不行了。 核心问题是这种随意的提示方式根本扩展不了。你会发现输出结果乱七八糟,质量完全不可控,还浪费计算资源。 真正有效的做法是设计结构化的Agent工作流。 那些
阅读全文
posted @ 2025-09-12 20:46 deephub
阅读(20)
评论(0)
推荐(0)
2025年9月11日
解决推理能力瓶颈,用因果推理提升LLM智能决策
摘要: 从ChatGPT到现在的智能体AI这个跨越说明了一个关键转变。ChatGPT本质上是个聊天机器人,生成文本回应;而AI智能体能够自主完成复杂任务——销售、旅行规划、航班预订、找装修师傅、点外卖,这些都在它的能力范围内。 目前我们解决用户任务时,主要是让大语言模型(LLM)做任务分解,这也是和生成式A
阅读全文
posted @ 2025-09-11 21:01 deephub
阅读(6)
评论(0)
推荐(0)
2025年9月10日
量子机器学习入门:三种数据编码方法对比与应用
摘要: 在传统机器学习中数据编码确实相对直观:独热编码处理类别变量,标准化调整数值范围,然后直接输入模型训练。整个过程更像是数据清洗,而非核心算法组件。 量子机器学习的编码完全是另一回事。 传统算法可以直接消化特征向量 ***[0.7, 1.2, -0.3]***,但量子电路运行在概率幅和量子态的数学空间里
阅读全文
posted @ 2025-09-10 20:49 deephub
阅读(5)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
9
···
139
下一页
公告