摘要: 我们初学的算法一般都是从SGD入门的,参数更新是: 它的梯度路线为: 但是可以看出它的上下波动很大,收敛的速度很慢。因此根据这些原因,有人提出了Momentum优化算法,这个是基于SGD的,简单理解,就是为了防止波动,取前几次波动的平均值当做这次的W。这个就用到理论的计算梯度的指数加权平均数,引进超 阅读全文
posted @ 2022-02-15 18:27 欧阳明源 阅读(143) 评论(0) 推荐(0) 编辑
摘要: 从C端视角来看,58商业将Embedding作为广告的一种理解方式,使我们精确理解C端用户意图,同时理解B端推广提供的能力,使得目标推广以合适的形式触达C端用户。Embedding对文本语义、用户行为进行向量化,通过数学计算表达广告和用户关系,具备易表示、易运算和易推广的特点。今天将从以下几方面来介 阅读全文
posted @ 2022-02-15 18:14 欧阳明源 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 在深度学习中,损失函数扮演着至关重要的角色。通过对最小化损失函数,使模型达到收敛状态,减少模型预测值的误差。因此,不同的损失函数,对模型的影响是重大的。接下来,总结一下,在工作中经常用到的损失函数: 图像分类:交叉熵 目标检测:Focal loss,L1/L2损失函数,IOU Loss,GIOU , 阅读全文
posted @ 2022-02-15 18:00 欧阳明源 阅读(800) 评论(0) 推荐(0) 编辑
摘要: 1. 什么是激活函数 在神经网络中,我们经常可以看到对于某一个隐藏层的节点,该节点的激活值计算一般分为两步: (1)输入该节点的值为 x1,x2x1,x2 时,在进入这个隐藏节点后,会先进行一个线性变换,计算出值 z[1]=w1x1+w2x2+b[1]=W[1]x+b[1]z[1]=w1x1+w2x 阅读全文
posted @ 2022-02-15 17:58 欧阳明源 阅读(1170) 评论(0) 推荐(0) 编辑
摘要: 阅读目录 1. 梯度下降法(Gradient Descent) 2. 牛顿法和拟牛顿法(Newton's method & Quasi-Newton Methods) 3. 共轭梯度法(Conjugate Gradient) 4. 启发式优化方法 5. 解决约束优化问题——拉格朗日乘数法 我们每个人 阅读全文
posted @ 2022-02-15 17:54 欧阳明源 阅读(2266) 评论(0) 推荐(0) 编辑