GlenTt

导航

2025年9月14日 #

推荐系统中负采样策略及采样偏差的校正方法

摘要: 推荐系统中负采样策略的剖析与实践 摘要 (Abstract) 负采样(Negative Sampling)是训练基于隐式反馈的现代推荐系统的核心技术。通过为观测到的正样本构建高质量的负样本,模型能够学习到用户的个性化偏好。然而,负采样的策略并非一成不变,其选择与推荐系统的阶段(召回、排序)、用户行为 阅读全文

posted @ 2025-09-14 15:50 GRITJW 阅读(228) 评论(0) 推荐(0)

用 Focal Loss 应对类别不平衡

摘要: 用 Focal Loss 应对类别不平衡 当面临类别极度不平衡的数据时,标准的交叉熵损失会因大量易分样本的主导而失效。Focal Loss 通过引入动态调制因子,强制模型聚焦于训练过程中的“硬核”样本,是解决此类问题的关键技术。 1. 核心公式回顾 Focal Loss 在标准交叉熵的基础上,增加了 阅读全文

posted @ 2025-09-14 11:14 GRITJW 阅读(85) 评论(0) 推荐(0)

回归任务的基石:MSE 损失函数理解与实现

摘要: 回归任务的基石:MSE 损失函数详解与实现 在回归问题领域,均方误差 (Mean Squared Error, MSE) 是最常用、最直观的损失函数。它衡量的是模型预测值与真实值之间的差距。今天,我们就来深入探讨 MSE 的核心思想,并给出一个简洁的 NumPy 实现。 1. 核心公式 MSE 的定 阅读全文

posted @ 2025-09-14 10:50 GRITJW 阅读(196) 评论(0) 推荐(0)

高效实现 BCE Loss:从理论到数值稳定的代码

摘要: 高效实现 BCE Loss:从理论到数值稳定的代码 在任何二分类任务中,二元交叉熵 (Binary Cross-Entropy, BCE) 损失函数都是基石。然而,一个看似简单的公式背后,却隐藏着数值计算的陷阱。今天,我们直击要点,讲解如何从理论公式演进到工业级的稳定代码实现。 1. 基础 BCE 阅读全文

posted @ 2025-09-14 10:39 GRITJW 阅读(56) 评论(0) 推荐(0)