摘要: 有了TF Girls课程的经验,再看MNIST就简单多了。 详细讲解参考极客学院教程 深入MNIST: http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_pros.html 测试结果99.29%,和教程中一致。 阅读全文
posted @ 2019-06-16 20:50 赤热之冰 阅读(44) 评论(0) 推荐(0)
摘要: 测试准确率平均为90%左右。 增加单张图片预测打印,结果如下。前4张为预测正确的,后4张为预测错误的。 最后一张预测错误比较意外,很明显是9。 查看过程数据,9的概率只有0.24, 0、1、3、4、6概率都比9要高。 Test Accuracy: 0.0%predict_labels= [[3.47 阅读全文
posted @ 2019-06-16 17:32 赤热之冰 阅读(141) 评论(0) 推荐(0)
摘要: 模型可视化,可以点开看每个节点内部的处理过程和数据流向。 训练100000次。 loss收敛如下,趋近于0.2 中间那条斜线太刺眼了,不知道哪来的。。。 权重和偏置在不断变化,说明训练过程确实对其做了修改。 还不太明白怎么分析这个图形,待以后学习。 阅读全文
posted @ 2019-06-16 17:15 赤热之冰 阅读(41) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/u011311291/article/details/82763093 阅读全文
posted @ 2019-06-16 16:08 赤热之冰 阅读(23) 评论(0) 推荐(0)
摘要: 代码: 打印: 对于LOSS,我的理解如下,反过来理解: softmax值域范围为(0,1),训练目的要求分类概率趋近于1(如图红线所示),即要求y=log(x) 趋近于0(如图蓝线所示); 所以训练过程就是寻找y的最小值,y值即为loss,即寻找loss的最小值,具体怎么去寻找,交给模型去做了。 阅读全文
posted @ 2019-06-16 12:47 赤热之冰 阅读(85) 评论(0) 推荐(0)