会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
9
10
···
144
下一页
2025年10月27日
Pandas 缺失值最佳实践:用 pd.NA 解决缺失值的老大难问题
摘要: Pandas 缺失值最佳实践:用 pd.NA 解决缺失值的老大难问题 做数据处理的都知道,一个 NaN 就能让整个数据清洗流程崩盘。过滤条件失效、join 结果错乱、列类型莫名其妙变成 object——这些坑踩过的人应该都有所体会。而Pandas 引入的可空数据类型(nullable dtypes)
阅读全文
posted @ 2025-10-27 19:37 deephub
阅读(7)
评论(0)
推荐(0)
2025年10月26日
大模型强化学习的熵控制:CE-GPPO、EPO与AsyPPO技术方案对比详解
摘要: LLM的强化学习训练最近进展很快,SOTA模型在各种推理benchmark上的表现确实亮眼。但更值得关注的其实是另一条信息——从Rutgers到Alibaba再到HKUST,这些研究团队正在攻克的是RL领域的一个老大难:怎么控制好熵,同时避免模型退化成毫无用处的确定性输出。 三篇新论文给出了不同角度
阅读全文
posted @ 2025-10-26 19:12 deephub
阅读(18)
评论(0)
推荐(0)
2025年10月25日
LLM安全新威胁:为什么几百个毒样本就能破坏整个模型
摘要: 数据投毒,也叫模型投毒或训练数据后门攻击,本质上是在LLM的训练、微调或检索阶段偷偷塞入精心构造的恶意数据。一旦模型遇到特定的触发词,就会表现出各种异常行为——输出乱码、泄露训练数据、甚至直接绕过安全限制。 这跟提示注入完全是两码事。提示注入发生在推理阶段,属于临时性攻击;而投毒直接改写了模型的权重
阅读全文
posted @ 2025-10-25 19:08 deephub
阅读(16)
评论(0)
推荐(0)
2025年10月24日
vLLM 性能优化实战:批处理、量化与缓存配置方案
摘要: 很多团队把它vLLM 当 demo 跑,但是其实这没把它系统能力发挥出来。这篇文章将介绍怎么让 vLLM 真正干活——持续输出高令牌/秒,哪些参数真正有用,以及怎么在延迟和成本之间做取舍。 https://avoid.overfit.cn/post/89022caa9a4346b290c212c0c
阅读全文
posted @ 2025-10-24 13:51 deephub
阅读(12)
评论(0)
推荐(0)
2025年10月23日
HNSW算法实战:用分层图索引替换k-NN暴力搜索
摘要: 向量检索是整个RAG管道的一个重要的步骤,传统的暴力最近邻搜索因为计算成本太高,扩展性差等无法应对大规模的搜索。 HNSW(Hierarchical Navigable Small World,分层可导航小世界图)提供了一种对数时间复杂度的近似搜索方案。查询时间却缩短到原来的1/10,我们今天就来介
阅读全文
posted @ 2025-10-23 21:12 deephub
阅读(10)
评论(0)
推荐(0)
2025年10月22日
AutoGen框架入门:5个核心概念搭建智能体协作系统
摘要: AutoGen 是微软研究院开源的多智能体 AI 系统框架。这个框架的设计思路很简单——让多个 AI 智能体(加上人类参与)在对话中完成复杂任务的协作和推理。 你甚至可以把它理解成一个团队聊天室,智能体们在里面讨论、争论、协作,最终得出解决方案。 AutoGen 通过创建多个专门化智能体,为每个智能
阅读全文
posted @ 2025-10-22 21:02 deephub
阅读(15)
评论(0)
推荐(0)
2025年10月21日
深入BERT内核:用数学解密掩码语言模型的工作原理
摘要: 传统语言模型有个天生缺陷——只能从左往右读,就像你现在读这段文字一样,一个词一个词往下看,完全不知道后面会出现什么。人类可不是这么学语言的。看到"被告被判**_**",大脑会根据上下文直接联想到"有罪"或者"无罪",这就是双向理解在起作用。 Google搞出来的BERT(Bidirectional
阅读全文
posted @ 2025-10-21 20:24 deephub
阅读(5)
评论(0)
推荐(0)
2025年10月20日
LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习
摘要: 代理系统或者 RAG 方案,基本都需要一个双层记忆架构,这样 LLM 既能保持对当前上下文的专注,又能记住过往交互的内容。 短期记忆负责单个会话内的即时信息管理,长期记忆则跨会话存储知识,让系统能够持续学习和进化。两者配合,代理才能表现出连贯性、上下文感知能力,看起来更加智能。这些记忆组件在现代 A
阅读全文
posted @ 2025-10-20 21:30 deephub
阅读(12)
评论(0)
推荐(0)
2025年10月19日
如何生成逼真的合成表格数据:独立采样与关联建模方法对比
摘要: 在数据科学的实际工作中,我们经常会遇到这样的情况:手头的真实数据要么不够用,要么因为隐私合规问题无法直接使用,但这些数据往往包含重要的统计规律,但直接拿来做实验或测试却十分的麻烦。 这时候合成数据就派上用场了,简单说就是根据现有数据集的分布特征,人工创造出任意数量的新数据行,让这些"假数据"在统计意
阅读全文
posted @ 2025-10-19 19:01 deephub
阅读(9)
评论(0)
推荐(0)
2025年10月18日
开源嵌入模型对比:让你的RAG检索又快又准
摘要: 嵌入(Embedding)是RAG流程里非常关键的一个步骤。它处理的是数据提取和分块之后的内容,嵌入的好坏直接影响系统能不能准确地表示和检索信息。这篇文章会讲清楚嵌入是什么、怎么工作的,还有怎么挑选合适的模型。 经典的RAG工作流 典型的RAG流程包含这几步: 首先是数据提取,从文档、网站、数据库等
阅读全文
posted @ 2025-10-18 21:36 deephub
阅读(15)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
9
10
···
144
下一页
公告