上一页 1 ··· 37 38 39 40 41 42 43 44 45 ··· 154 下一页
摘要: 在众多时间序列模型中,SARIMA(seasonal autoregressive integrated moving average,季节性自回归积分滑动平均模型)能够有效处理时间序列中的季节性成分。但是在实际应用中,如何准确识别和提取这些季节性模式一直是一个挑战。 传统上,识别季节性模式往往依赖 阅读全文
posted @ 2025-02-10 09:57 deephub 阅读(55) 评论(0) 推荐(0)
摘要: 指标收集是每个机器学习项目不可或缺的组成部分,它使我们能够跟踪模型性能并监控训练进度。理想情况下,我们希望在不给训练过程带来额外开销的前提下收集和计算指标。与训练循环的其他部分一样,低效的指标计算可能会引入不必要的开销,延长训练步骤的耗时,并增加训练成本。 本文是将聚焦于指标收集,演示指标收集的一种 阅读全文
posted @ 2025-02-09 11:28 deephub 阅读(65) 评论(0) 推荐(0)
摘要: 本文介绍 DeepSeek-TS,该框架受到 DeepSeek 中高效的多头潜在注意力(MLA)和群组相对策略优化(GRPO)技术的启发,并将其应用于多产品时间序列预测。 这个的方法扩展了 MLA,提出了 MLA-Mamba。MLA-Mamba 允许潜在特征通过具有非线性激活的状态空间模型动态演变, 阅读全文
posted @ 2025-02-08 10:40 deephub 阅读(245) 评论(0) 推荐(0)
摘要: 在人工智能(AI)和强化学习(RL)领域的发展进程中,长期记忆维持和决策优化一直是核心技术难点。传统强化学习模型在经验回溯方面存在局限性,这显著制约了其在复杂动态环境中的应用效果。自反射记忆Transformer (SRMT)作为一种新型记忆增强型transformer架构,专注于提升基于AI的决策 阅读全文
posted @ 2025-02-07 10:08 deephub 阅读(119) 评论(0) 推荐(0)
摘要: 大语言模型(LLM)评估系统在生成思维链(Chain-of-Thought, CoT)序列时,需要系统地捕捉评估过程中的推理步骤。但是由于缺乏人工标注的CoT训练数据,以及预定义评估提示在复杂任务中的局限性,构建高质量的LLM评估模型面临重大挑战。另外手动调整评估指令的方法在面对多样化和复杂任务时表 阅读全文
posted @ 2025-02-06 10:41 deephub 阅读(64) 评论(0) 推荐(0)
摘要: DeepSeek-R1 通过创新的训练策略实现了显著的成本降低,同时保持了卓越的模型性能。本文将详细分析其核心训练方法。 成本优势对比 在推理成本方面,DeepSeek-R1 展现出显著优势: 输入 tokens : $0.55/百万 tokens 输出 tokens : $2.19/百万 toke 阅读全文
posted @ 2025-02-05 09:55 deephub 阅读(391) 评论(0) 推荐(0)
摘要: 在现代科学计算和数据分析领域,数据降维与压缩技术对于处理高维数据具有重要意义。本文主要探讨两种基础而重要的数学工具:Karhunen-Loève展开(KLE)和快速傅里叶变换(FFT)。通过分析这两种方法的理论基础和应用特点,阐述它们在数据降维中的优势和适用场景。 Karhunen-Loève展开的 阅读全文
posted @ 2025-02-04 20:47 deephub 阅读(88) 评论(0) 推荐(0)
摘要: 神经常微分方程(Neural ODEs)是深度学习领域的创新性模型架构,它将神经网络的离散变换扩展为连续时间动力系统。与传统神经网络将层表示为离散变换不同,Neural ODEs将变换过程视为深度(或时间)的连续函数。这种方法为机器学习开创了新的研究方向,尤其在生成模型、时间序列分析和物理信息学习等 阅读全文
posted @ 2025-02-03 09:52 deephub 阅读(75) 评论(0) 推荐(0)
摘要: DeepSeekMoE是一种创新的大规模语言模型架构,通过整合专家混合系统(Mixture of Experts, MoE)、改进的注意力机制和优化的归一化策略,在模型效率与计算能力之间实现了新的平衡。 DeepSeekMoE架构融合了专家混合系统(MoE)、多头潜在注意力机制(Multi-Head 阅读全文
posted @ 2025-02-02 10:29 deephub 阅读(102) 评论(0) 推荐(0)
摘要: 机器学习的核心目标是在未见过的新数据上实现准确预测。 当模型在训练数据上表现良好,但在测试数据上表现不佳时,即出现“过拟合”。这意味着模型从训练数据中学习了过多的噪声模式,从而丧失了在新数据上的泛化能力。 那么,过拟合的根本原因是什么?具体来说, 哪些特征(数据集的列)阻碍了模型在新数据上的有效泛化 阅读全文
posted @ 2025-02-01 10:37 deephub 阅读(42) 评论(0) 推荐(0)
上一页 1 ··· 37 38 39 40 41 42 43 44 45 ··· 154 下一页