[CS231n-CNN] Linear classification II, Higher-level representations, image features, Optimization, stochastic gradient descent

课程主页:http://cs231n.stanford.edu/

 

loss function:

-Multiclass SVM loss:

NewImage

NewImage

NewImage

NewImage表示实际应该属于的类别的score。因此,可以发现,如果实际所属的类别score越小,那么loss function算出来的就会越大,这样才符合常理。

最后取平均:

NewImage

*问题:

1⃣️:

NewImage

因为include j=y_i其实就是最后加上常数1,对结果没有任何影响。

2⃣️:

NewImage

因为mean和sum成正比,因此对最后的结果都没影响,所以为了方便计算,无需求mean。

NewImage

这两种loss function结果会有所区别,但两者都可以。第一种更常见。

NewImage

min:0(最完美的)

max:正无穷(最不完美的)

NewImage

NewImageNewImage都很小,所以结果会是number_of_classes - 1.

NewImage

NewImage

如果每个的都分队的话,w无论乘以多少倍(w不唯一),结果都是一样的。

在w不唯一的情况下,我们如何得到我们最想要的一组w的值呢?因此,我们需要一种方法可以measure niceness of w.

正则化的目的是防止过拟合。

-引出:Weight Regularisation

NewImage

我们不仅仅想要w能够很好的拟合数据,而且还想得到更好的w。

motivation:

NewImage

w1只与一个feature有关,忽略了其他的feature。虽然w1和w2的值相同。(详细的介绍参考cs229)

__________________________________________________________________________________________________________

-Softmax function(a different form loss function:NewImage)

(之前用的是svm,即:NewImage

计算方法:

NewImage

*问题:

NewImage

min:0 (全部分对)

max:无穷大 (严重分错)

所以,最大值和最小值是一样的,也符合常理。

比较:

NewImage

问题:

NewImage

10是正确的score。

如果把第三个数据[10,-100,100]稍微变一下,两种loss function会有什么样的变化?

svm:会保持不变,因为根据公式里,只要(-x)-(100)+1<0,它都会被认为是0.所以,对结果不会产生任何影响。

softmax:会产生better loss。

有学生提问:为什么是svm中是+1,可以改为0吗?

回答:必须要一个正数(详细解释请看cs229,margin)

demo : http://vision.stanford.edu/teaching/cs231n/linear-classify-demo/

_________________________________________________________________________________________________________________________________

-Optimization

NewImage

NewImage

NewImage

NewImage

因为参数有成千上万个,如果改变一个参数计算一次loss的话,会非常耗时。

引出微积分(莱布尼茨和牛顿发现的):

NewImage

通过直接计算导数就可以了。

总结:

NewImage

NewImage

更有效的方法:不把所有的训练数据拿来训练,而是每次随机抽取部分数据拿来训练。虽然每次的结果会有波动,但是总的趋势是下降的。

NewImage

 

下面的那种不需要feature extraction,直接training出10numbers。

NewImage

 

posted @ 2016-03-28 21:53  max_xbw  阅读(728)  评论(1编辑  收藏  举报