摘要: 本文内容主要摘抄自NNDL和科学空间 批量梯度下降法(Batch gradient descent) 定义可导的损失函数$L(\cdot)$,给定批量大小(batch size)\(K\),每次选取$K$个训练样本$\calt={(\bf{(k)},\bf{(k)})}^$。第$t$次迭代时,损失函 阅读全文
posted @ 2021-07-21 21:29 Ohnkyta 阅读(625) 评论(0) 推荐(0)
摘要: 性能度量 对回归模型常用MSE \[ E(f;D)=\int_{x\sim D}(f(x)-y)^2p(x)dx \] 对分类模型常用错误率和精度 \[ E(f;D)=\int_{x\sim D}I(f(x)=y)p(x)dx\\ acc(f;D)=1-E(f;D) \] 在二分类模型中有以下问题 阅读全文
posted @ 2021-07-21 21:27 Ohnkyta 阅读(132) 评论(0) 推荐(0)