摘要: 具体公式和思想可以看 https://www.cnblogs.com/itmorn/p/11254448.html 先说结果:说白了,这个平滑就是一定程度缩小label中min和max的差距,label平滑可以减小过拟合。 深度学习中的损失函数Loss实际上就是鼓励模型去接近对应的label,越接近 阅读全文
posted @ 2020-03-18 21:09 whustczy 阅读(8052) 评论(1) 推荐(0)
摘要: 每一个output的值都有prob的概率被保留,如果保留=input/ prob,否则变为0 dropout相当于一个过滤层,tensorflow不仅丢弃部分input,同时将保留下的部分适量地增加以试图弥补梯度 1 inputs = tf.reshape(tf.range(40.), (2,4,5 阅读全文
posted @ 2020-03-16 21:27 whustczy 阅读(920) 评论(0) 推荐(0)