会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
2026年1月31日
用 PyTorch 实现 LLM-JEPA:不预测 token,预测嵌入
摘要: 这篇文章从头实现 LLM-JEPA: Large Language Models Meet Joint Embedding Predictive Architectures。需要说明的是,这里写的是一个简洁的最小化训练脚本,目标是了解 JEPA 的本质:对同一文本创建两个视图,预测被遮蔽片段的嵌入,
阅读全文
posted @ 2026-01-31 21:36 deephub
阅读(0)
评论(0)
推荐(0)
2026年1月30日
大模型如何训练百万 Token 上下文:上下文并行与 Ring Attention
摘要: 只用了几年时间,上下文窗口就从 4k 膨胀到 1000 万。Meta 发布的 Llama 4 Scout 的时候说这个模型支持 1000 万 Token,是 Llama 3 那 128k 的 78 倍。而Google Gemini 3 Pro 是 100 万,Claude 4 也桐乡市100万。 一
阅读全文
posted @ 2026-01-30 22:36 deephub
阅读(4)
评论(0)
推荐(0)
2026年1月29日
让 Q 值估计更准确:从 DQN 到 Double DQN 的改进方案
摘要: DQN 用 max Q(s',a') 计算目标值,等于在挑 Q 值最高的动作,但是这些动作中包括了那些因为估计噪声而被高估的动作,素以就会产生过估计偏差,直接后果是训练不稳定、策略次优。 这篇文章要解决的就是这个问题,内容包括:DQN 为什么会过估计、Double DQN 怎么把动作选择和评估拆开、
阅读全文
posted @ 2026-01-29 21:24 deephub
阅读(5)
评论(0)
推荐(0)
2026年1月28日
Claude Code子代理实战:10个即用模板分享
摘要: 如果你认为Claude Code 的使用流程就是随手丢一句话,然后就等结果那你就错了。 比如你对Claude Code 说 "重构这段代码,找出bug,写测试,优化性能,顺便解释一下。" 你可以看到它确实在努力,但结果一塌糊涂:可能在重构动了业务逻辑,解释写了一半就没了下文了,而且测试跟项目框架对不
阅读全文
posted @ 2026-01-28 21:48 deephub
阅读(4)
评论(0)
推荐(0)
2026年1月27日
pandas 3.0 内存调试指南:学会区分真假内存泄漏
摘要: 你有没有遇到过,在使用pandas的时候批处理任务跑完了, del df 执行了,甚至还使用了 import gc; gc.collect() 但是进程内存确没有减少。 我们首先就会想到这可能是"pandas 有内存泄漏",其实这不一定就是泄漏。可能是引用、分配器的正常行为。而且在pandas 3.
阅读全文
posted @ 2026-01-27 21:59 deephub
阅读(2)
评论(0)
推荐(0)
2026年1月26日
用 PydanticAI 让 LLM 输出变成可信赖的 Python 对象
摘要: 构建过 AI agent 的人大概都遇到过这种情况:LLM 返回的数据"差不多"是你要的但又不完全对。比如会遇到字段名拼错了数据类型不对,或者干脆多了几个莫名其妙的 key。 这是问题出在哪?当前主流的 agentic AI 系统处理输出的方式太原始了,比如说脆弱的 JSON 解析、基于 promp
阅读全文
posted @ 2026-01-26 21:46 deephub
阅读(1)
评论(0)
推荐(0)
2026年1月25日
为什么标准化要用均值0和方差1?
摘要: 为什么标准化要把均值设为0、方差设为1? 先说均值。均值就是平均数,所有观测值加起来除以个数。 μ是均值,n是数据点总数,xᵢ是每个数据点,所以均值就是数据的重心位置。比如均值是20,那20就是平衡点。这不是说所有点到20的距离相等而是说两边的"重量"刚好在20这个位置抵消掉。 而方差衡量的是数据有
阅读全文
posted @ 2026-01-25 21:02 deephub
阅读(1)
评论(0)
推荐(0)
2026年1月24日
知识图谱的可验证性:断言图谱的设计原理
摘要: 大语言模型在文本生成和推理上的表现有目共睹,但对于从非结构化文本构建可靠知识图谱这件事,依然是个老大难。这个问题的根源在于:语言模型的运作机制与结构化知识提取的需求之间存在本质性的错位。本文会介绍自动化知识图谱生成的核心难题:生成式模型为什么搞不定结构化提取,判别式方案能提供什么样的替代选择,生产级
阅读全文
posted @ 2026-01-24 22:49 deephub
阅读(4)
评论(0)
推荐(0)
2026年1月23日
OPIK:一个开源的自动提示词优化框架
摘要: 大语言模型发展到今天,写提示词不仅是个体力活,还是一个技术活。提示词的措辞稍微改一下,性能波动 20-50% 是常有的事。那能不能让 LLM 自己改进提示词呢? 本文主要讲的就是这个,一个处理复杂推理任务的 Agent,经过几轮自动迭代,准确率从 34% 飙到 97%相对提升 184%。下面是完整的
阅读全文
posted @ 2026-01-23 20:14 deephub
阅读(12)
评论(0)
推荐(0)
2026年1月22日
RAG 检索模型如何学习:三种损失函数的机制解析
摘要: Agent 系统发展得这么快那么检索模型还重要吗?RAG 本身都已经衍生出 Agentic RAG和 Self-RAG(这些更复杂的变体了。 答案是肯定的,无论 Agent 方法在效率和推理上做了多少改进,底层还是离不开检索。检索模型越准,需要的迭代调用就越少,时间和成本都能省下来,所以训练好的检索
阅读全文
posted @ 2026-01-22 22:57 deephub
阅读(2)
评论(0)
推荐(0)
下一页
公告