摘要:
原来的训练结果: 改变优化器:规定优化器为adam,并将if(learning_rate)为0.001. 改变优化器之后的训练结果:结果不是很好,很快达到了饱和 阅读全文
posted @ 2021-08-26 17:46
kkkshiki
阅读(35)
评论(0)
推荐(0)
|
摘要:
原来的训练结果: 改变优化器:规定优化器为adam,并将if(learning_rate)为0.001. 改变优化器之后的训练结果:结果不是很好,很快达到了饱和 阅读全文
posted @ 2021-08-26 17:46
kkkshiki
阅读(35)
评论(0)
推荐(0)
摘要:
在上次的fashion mnist实现softmax的基础,对于多分类问题使用categorical_crossentropy 和 sparse_categorical_crossentropy 两种方式来计算softma交叉熵 在原先train_lable是数字编码 ,现在使用独热编码(独热编码即 阅读全文
posted @ 2021-08-26 13:20
kkkshiki
阅读(206)
评论(0)
推荐(0)
|