摘要:
1.单个训练样本(损失函数) 在逻辑回归中我们需要做的就是变换参数w和b的值,来最小化损失函数 a也就是sigmoid函数,也就是a=1/(1+e^(-z)),所以dL/dz=dL/da * da/dz = a-y 这就是单个样本实例的一次梯度更新的步骤 2.多个训练样本 下图中有一个很明显的问题就 阅读全文
1.单个训练样本(损失函数) 在逻辑回归中我们需要做的就是变换参数w和b的值,来最小化损失函数 a也就是sigmoid函数,也就是a=1/(1+e^(-z)),所以dL/dz=dL/da * da/dz = a-y 这就是单个样本实例的一次梯度更新的步骤 2.多个训练样本 下图中有一个很明显的问题就 阅读全文
posted @ 2023-03-24 09:44
剑断青丝ii
阅读(92)
评论(0)
推荐(0)

浙公网安备 33010602011771号