上一页 1 ··· 33 34 35 36 37 38 39 40 41 ··· 144 下一页
摘要: Transformer模型已经成为大语言模型(LLMs)的标准架构,但研究表明这些模型在准确检索关键信息方面仍面临挑战。今天介绍一篇名叫Differential Transformer的论文,论文的作者观察到一个关键问题:传统Transformer模型倾向于过分关注不相关的上下文信息,这种"注意力噪 阅读全文
posted @ 2024-12-15 17:19 deephub 阅读(97) 评论(0) 推荐(0)
摘要: 在时间序列分析领域中,数据缺失是一个不可避免的挑战。无论是由于传感器故障、数据传输中断还是设备维护等原因,这些缺失都会对数据分析和预测造成显著影响。传统的处理方法,如前向填充或简单插值,虽然实现简单,但在处理复杂数据时往往表现不足。 具体来说,当时间序列具有以下特征时,传统方法的局限性就会显现: 存 阅读全文
posted @ 2024-12-14 09:24 deephub 阅读(79) 评论(0) 推荐(0)
摘要: 蒙特卡洛模拟是一种基于重复随机抽样获取数值结果的计算算法。该方法的核心原理在于利用随机性解决本质上可能具有确定性的问题。其命名源自摩纳哥的蒙特卡洛赌场,这体现了该方法中固有的随机性特征。在金融与交易等多个领域,该方法被广泛应用于不确定性场景的建模和风险影响评估。 在金融应用领域,蒙特卡洛模拟主要用于 阅读全文
posted @ 2024-12-13 09:52 deephub 阅读(146) 评论(0) 推荐(0)
摘要: 目标检测技术作为计算机视觉领域的核心组件,在自动驾驶系统、智能监控、零售分析以及增强现实等应用中发挥着关键作用。本文将详细介绍PaliGemma2模型的微调流程,该模型通过整合SigLIP-So400m视觉编码器与Gemma 2系列的高级语言模型,专门针对目标检测任务进行了优化设计。 本文适用于机器 阅读全文
posted @ 2024-12-12 21:52 deephub 阅读(62) 评论(0) 推荐(0)
摘要: 在现代预测分析领域,准确评估预测结果的不确定性已成为一个关键挑战。预测的不确定性量化不仅能够提供更可靠的决策支持,还能深入揭示模型的预测能力边界。本文聚焦于时间序列预测中的不确定性量化问题,重点探讨基于一致性预测理论的集成批量预测区间(Ensemble Batch Prediction Interv 阅读全文
posted @ 2024-12-11 13:03 deephub 阅读(77) 评论(0) 推荐(0)
摘要: 理论基础 算法本质与背景 层次化(Hierarchial)Softmax算法是在深度学习领域中解决大规模词嵌入训练效率问题的重要突破。该算法通过引入Huffman树结构,有效地将传统Softmax的计算复杂度从线性降至对数级别,从而在处理大规模词汇表时表现出显著的优势。 在传统的神经网络词嵌入模型中 阅读全文
posted @ 2024-12-10 09:36 deephub 阅读(38) 评论(0) 推荐(0)
摘要: 在现代技术领域算法决策优化已成为核心竞争力。Meta通过广告位置优化提升点击率,Netflix利用缩略图优化提升用户参与度,亚马逊依靠产品推荐系统提升销售额——这些优化的背后都采用了基于Beta分布的汤普森采样算法。 在各类决策系统中,探索与利用的平衡是一个根本性挑战。例如推荐系统是继续使用已验证有 阅读全文
posted @ 2024-12-09 10:03 deephub 阅读(56) 评论(0) 推荐(0)
摘要: 方向导数作为标量量,表征了函数在特定方向上的变化率。其数学表示为 ∇ᵤf(x) 或 Dᵤf(x)。 对于标量函数 f(x): Rⁿ → R,其梯度由函数的偏导数构成向量场。梯度向量指向函数值增长最快的方向,其模长等于该方向的方向导数。 方向导数的计算可通过两种方法实现:其一是引入函数 g(s) = 阅读全文
posted @ 2024-12-08 09:34 deephub 阅读(100) 评论(0) 推荐(0)
摘要: 大语言模型(LLMs)推理过程中的批处理优化面临显著挑战,这主要源于其推理过程的迭代特性。核心问题在于批处理中的各个请求完成时间存在差异,这导致资源释放和新请求整合的复杂性显著提高,特别是在处理不同完成阶段的请求时。当批处理中序列的生成长度差异较大时,GPU资源利用率往往不够理想。如下图所示,序列1 阅读全文
posted @ 2024-12-07 09:55 deephub 阅读(180) 评论(0) 推荐(0)
摘要: Graph Transformer是一种将Transformer架构应用于图结构数据的特殊神经网络模型。该模型通过融合图神经网络(GNNs)的基本原理与Transformer的自注意力机制,实现了对图中节点间关系信息的处理与长程依赖关系的有效捕获。 Graph Transformer的技术优势 在处 阅读全文
posted @ 2024-12-06 21:29 deephub 阅读(155) 评论(0) 推荐(0)
上一页 1 ··· 33 34 35 36 37 38 39 40 41 ··· 144 下一页