摘要:        
本文内容主要摘抄自NNDL和科学空间 批量梯度下降法(Batch gradient descent) 定义可导的损失函数$L(\cdot)$,给定批量大小(batch size)\(K\),每次选取$K$个训练样本$\calt={(\bf{(k)},\bf{(k)})}^$。第$t$次迭代时,损失函    阅读全文
posted @ 2021-07-21 21:29
Ohnkyta
阅读(625)
评论(0)
推荐(0)
        
            
        
        
摘要:        
性能度量 对回归模型常用MSE \[ E(f;D)=\int_{x\sim D}(f(x)-y)^2p(x)dx \] 对分类模型常用错误率和精度 \[ E(f;D)=\int_{x\sim D}I(f(x)=y)p(x)dx\\ acc(f;D)=1-E(f;D) \] 在二分类模型中有以下问题     阅读全文
posted @ 2021-07-21 21:27
Ohnkyta
阅读(132)
评论(0)
推荐(0)
        

浙公网安备 33010602011771号