摘要:转载自deeplearning.stanford.edu/wiki/index.php/反向传播算法假设我们有一个固定样本集,它包含个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例,其代价函数为:这是一个(二分之一的)方差代价函数。给定一个包含个样例的数据集,我们可以定义整体代...
阅读全文
03 2015 档案
摘要:to deal with underfitting增加feature的数目(通过feature的平方,立方项等增加feature或者增加其他的feature)减小λ的值to deal with overfitting找更多的训练样本减少feature的数目用regulation,增加λ的值θeval...
阅读全文
摘要:Linear Regression with Multiple Variablesmean normalization:将不同特征的数据scale统一目的:为了使梯度下降法更快地找到全局最小值实现方法:把原始数据做变换,(Xraw-mean)/(XrawMax-XrawMin)feature sca...
阅读全文

浙公网安备 33010602011771号