08 2025 档案

摘要:NLP Note 线性神经网络 搞一个损失函数,然后用梯度下降的方法,不断修改自己的参数,使得损失函数最小,即最贴近实际情况 梯度下降:每次往一个梯度最大的方向移动一个步长的大小 多层感知机 相比于线性神经网络,加入了隐藏层(激活函数),引入了非线性变化,使得模型可以拟合一些非线性的情况 Softm 阅读全文
posted @ 2025-08-12 00:53 AikNr 阅读(27) 评论(0) 推荐(0)
摘要:DAPO 裁剪偏移 提高了 clip 中 (1 - sita, 1+sita)的范围,减少了熵下降的速度。在高熵的状态下可以做更多的探索,高熵就是策略的随机性强,探索能力高,低熵就是随机性低,策略确定性高,偏向利用已知的高奖励动作,探索性低 clip 的上界会限制 policy 的 explorat 阅读全文
posted @ 2025-08-12 00:53 AikNr 阅读(69) 评论(0) 推荐(0)
摘要:深入解析:模型参数、权重、激活值与梯度的关系 在神经网络的核心运作机制中,模型参数(Parameters)、权重(Weights)、激活值(Activations) 和 梯度(Gradients) 是四个紧密相连、缺一不可的关键概念。它们共同协作,驱动着模型的学习和预测过程。简而言之,它们之间的关系 阅读全文
posted @ 2025-08-12 00:52 AikNr 阅读(104) 评论(0) 推荐(0)
摘要:在深度学习中,无论是进行模型推理(Inference)还是训练(更新参数),都需要占用大量GPU显存(VRAM)。然而,这两者在显存需求和构成上存在显著差异。总体而言,模型训练所需的显存远大于推理。 下面将详细解析在两个阶段中,显存分别被哪些部分占用。 一、 模型推理(Inference)时的显存占 阅读全文
posted @ 2025-08-12 00:52 AikNr 阅读(208) 评论(0) 推荐(0)
摘要:机器学习中的正则化:通俗易懂的解释 在机器学习领域,正则化 (Regularization) 是一类旨在防止模型过拟合、增强其泛化能力的关键技术。简单来说,正则化就是在模型的学习过程中,通过引入额外的信息或约束(即对模型复杂度的一种惩罚),来引导模型学习到更简单、更平滑的规律,从而避免模型对训练数据 阅读全文
posted @ 2025-08-12 00:50 AikNr 阅读(92) 评论(0) 推荐(0)