上一页 1 2 3 4 5 6 7 8 9 ··· 144 下一页
摘要: Python 生态里能用的因果库有很多选哪个往往要看你对模型的理解程度,以及项目对“可解释性”的要求。这篇文章将对比了六个目前社区中最常用的因果推断库:Bnlearn、Pgmpy、CausalNex、DoWhy、PyAgrum 和 CausalImpact。 贝叶斯因果模型 在因果推断里所有变量可以 阅读全文
posted @ 2025-11-06 22:16 deephub 阅读(16) 评论(0) 推荐(0)
摘要: 回归任务在实际应用中随处可见——天气预报、自动驾驶、医疗诊断、经济预测、能耗分析,但大部分回归模型只给出一个预测值,对这个值到底有多靠谱却只字不提。这在某些应用场景下会造成很多问题,比如用模型预测患者血压,假设输出是120/80这样的正常值,表面看没问题。但如果模型其实对这个预测很不确定呢?这时候光 阅读全文
posted @ 2025-11-05 19:42 deephub 阅读(9) 评论(0) 推荐(0)
摘要: 3D Gaussian Splatting(3DGS)现在几乎成了3D视觉领域的标配技术。NVIDIA把它整合进COSMOS,Meta的新款AR眼镜可以直接在设备端跑3DGS做实时环境捕获和渲染。这技术已经不只是停留在论文阶段了,产品落地速度是相当快的。 所以这篇文章我们用PyTorch从头实现最初 阅读全文
posted @ 2025-11-04 20:59 deephub 阅读(6) 评论(0) 推荐(0)
摘要: Model Context Protocol (MCP) 这个协议简单说就是给大语言模型接入外部数据和工具提供了一套标准化方案。MCP 统一了模型和各种数据源、工具服务之间的交互方式。 FastMCP 是目前用 Python 构建 MCP 服务器最顺手的框架,把底层那些复杂的协议实现全都封装好了,开 阅读全文
posted @ 2025-11-03 20:04 deephub 阅读(73) 评论(0) 推荐(0)
摘要: 用 LangChain 构建 AI Agent 的人应该都遇到过这种情况:测试阶段一切正常,部署到生产环境就开始出各种问题。上下文管理混乱,Agent 的行为变得难以预测,最后不得不写一堆自定义代码来控制信息流向。 这是因为在v1.0 之前的 LangChain 对上下文工程的支持不够系统化。上下文 阅读全文
posted @ 2025-11-02 18:48 deephub 阅读(34) 评论(0) 推荐(0)
摘要: 文本到图像(T2I)生成模型的发展速度超出很多人的预期。从SDXL到Midjourney,再到最近的FLUX.1,这些模型在短时间内就实现了从模糊抽象到逼真细腻的跨越。但问题也随之而来——如何让模型生成的不仅仅是"一张图",而是"正确的那张图"?这涉及到如何让AI理解人类在审美、风格和构图上的真实偏 阅读全文
posted @ 2025-11-01 19:04 deephub 阅读(11) 评论(0) 推荐(0)
摘要: 实践是最好的学习方式。为了深入理解 LangGraph 和模型上下文协议(MCP)服务器的生态,我们来从零开始构建一个 CLI 编码代理。我们的目标是,抛开 Claude Code 那些花里胡哨的功能,看看最基础的编码代理能做到什么程度。那些商业编码代理往往会添加各种专有的"秘密配方"——特殊的上下 阅读全文
posted @ 2025-10-31 20:09 deephub 阅读(8) 评论(0) 推荐(0)
摘要: 特征越多模型效果就越好?这个想法在实践中往往站不住脚,因为过多的特征反而会带来过拟合、训练时间过长、模型难以解释等一堆麻烦。递归特征消除(RFE)就是用来解决这类问题的,算是特征选择里面比较靠谱的方法之一。 本文会详细介绍RFE 的工作原理,然后用 scikit-learn 跑一个完整的例子。 RF 阅读全文
posted @ 2025-10-30 18:57 deephub 阅读(13) 评论(0) 推荐(0)
摘要: AutoSampler是个智能采样器,能根据具体问题自动挑选 Optuna 里最合适的优化算法。这个工具在 OptunaHub 上热度很高,每周下载量超过 3 万次。最早的版本对单目标优化做了专门的自动选择逻辑,为了配合下个月发布的 Optuna v4.6,AutoSampler 终于把多目标和约束 阅读全文
posted @ 2025-10-29 18:47 deephub 阅读(15) 评论(0) 推荐(0)
摘要: 现在的 Agent 系统有个很明显的问题 —— 会话一结束,什么都忘了。 这不是个技术缺陷,但是却限制了整个系统的能力边界。Agent 可以做推理、规划、执行复杂任务,但就是记不住之前发生过什么。每次对话都像是第一次见面,这种状态下很难说它真正"理解"了什么。 记忆能力是把 LLM 从简单的问答工具 阅读全文
posted @ 2025-10-28 22:20 deephub 阅读(7) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 9 ··· 144 下一页