上一页 1 ··· 41 42 43 44 45 46 47 48 49 ··· 153 下一页
摘要: BERT 发布于 2018 年(从人工智能发展速度来看已是遥远的过去),但它至今仍在广泛使用:实际上它目前是 HuggingFace hub 上下载量第二高的模型,月下载量超过 6800 万次,仅次于另一个针对检索任务优化的编码器模型。这源于其编码器架构在处理日常实际问题方面表现出色,例如检索(如用 阅读全文
posted @ 2024-12-24 10:48 deephub 阅读(201) 评论(0) 推荐(0)
摘要: 在Python开发过程中,调试是一项核心技能。无论是初级开发者还是资深工程师,掌握高效的调试技巧都能显著提升开发效率。本文将介绍10个实用的调试方法,帮助开发者更有效地定位和解决问题。 https://avoid.overfit.cn/post/dfc2c72df2164c7ebac1289e17e 阅读全文
posted @ 2024-12-23 09:40 deephub 阅读(38) 评论(0) 推荐(0)
摘要: 基于人类反馈的强化学习(RLHF)已成为大型语言模型(LLM)训练流程中的关键环节,并持续获得研究界的广泛关注。 本文将探讨RLHF技术,特别聚焦于直接偏好优化(Direct Preference Optimization, DPO)方法,并详细阐述了一项实验研究:通过DPO对GPT-2 124M模 阅读全文
posted @ 2024-12-22 10:15 deephub 阅读(100) 评论(0) 推荐(0)
摘要: 随着语言模型(LMs)应用范围的扩大,对用户输入和模型输出中不当内容的检测变得日益重要。每当主要模型供应商发布新模型时,研究人员首先会尝试寻找绕过模型安全限制的方法,使其产生不符合预期的响应。通过Google的搜索可以发现,已有多种方法可以绕过模型的对齐调整,导致模型对不当请求作出响应。另外多家公司 阅读全文
posted @ 2024-12-21 09:27 deephub 阅读(43) 评论(0) 推荐(0)
摘要: 时间序列数据在现代数据分析中无处不在。从金融市场的股票价格波动到生物医学领域的心电图与脑电图信号,甚至是日常生活中的用水量变化,都可以通过时间序列来表征。深入理解时间序列信号之间的关联性对于提取有意义的数据特征至关重要。本文将重点介绍两种基本但强大的分析工具:互相关和相干性分析。这些方法能够有效地揭 阅读全文
posted @ 2024-12-20 09:56 deephub 阅读(130) 评论(0) 推荐(0)
摘要: 本文探讨在量化交易领域中结合时序特征和静态特征的混合建模方法。通过整合堆叠稀疏降噪自编码器(SSDA)和基于LSTM的自编码器(LSTM-AE),我们要构建一个能够全面捕捉市场动态特性的交易系统。 特征表示学习 在特征工程阶段,SSDA通过降噪技术提取股票数据的鲁棒表示。该方法能够有效过滤市场噪声, 阅读全文
posted @ 2024-12-19 09:56 deephub 阅读(96) 评论(0) 推荐(0)
摘要: 在分析变量间复杂依赖关系时,传统统计工具往往难以胜任。Copula作为一种将边际分布与联合依赖结构解耦的数学框架,为解决这类问题提供了有效途径。本文将深入探讨copula的基础理论、运作机制及其在数据科学领域的实际应用。 从数学本质来看,copula是一类能够将随机变量间的依赖关系与其边际分布分离的 阅读全文
posted @ 2024-12-18 09:24 deephub 阅读(55) 评论(0) 推荐(0)
摘要: 在机器学习和数据分析中,我们经常需要验证数据是否符合某种特定的分布(如正态分布)。这种验证对于选择合适的统计方法和机器学习模型至关重要。例如许多统计检验和机器学习算法都假设数据服从正态分布。如果这个假设不成立,我们可能需要对数据进行转换或选择其他更适合的方法。 Q-Q图(Quantile-Quant 阅读全文
posted @ 2024-12-17 09:54 deephub 阅读(65) 评论(0) 推荐(0)
摘要: 在大型语言模型(LLMs)相关的人工智能突破中,图神经网络(GNNs)与LLMs的融合已成为一个极具前景的研究方向。这两类模型的结合展现出显著的互补性,能够协同增强LLMs的推理能力和上下文理解能力。通过从知识图谱(KGs)存储的海量信息中进行智能化检索,该结合能够生成准确且不含幻觉的答案。 本文对 阅读全文
posted @ 2024-12-16 10:46 deephub 阅读(224) 评论(0) 推荐(0)
摘要: Transformer模型已经成为大语言模型(LLMs)的标准架构,但研究表明这些模型在准确检索关键信息方面仍面临挑战。今天介绍一篇名叫Differential Transformer的论文,论文的作者观察到一个关键问题:传统Transformer模型倾向于过分关注不相关的上下文信息,这种"注意力噪 阅读全文
posted @ 2024-12-15 17:19 deephub 阅读(115) 评论(0) 推荐(0)
上一页 1 ··· 41 42 43 44 45 46 47 48 49 ··· 153 下一页