微信扫一扫打赏支持
摘要: Fashion MNIST数据集介绍 一、总结 一句话总结: 甲)、Fashion-MNIST和mnist数据集非常相似,都是60000训练10000测试,图片也都是28*28 乙)、不过mnist是手写数字0-9分类,Fashion MNIST是服装的分类(T恤、衣服、裤子、鞋子等) 二、Fash 阅读全文
posted @ 2020-09-15 22:40 范仁义 阅读(3872) 评论(0) 推荐(0)
摘要: categorical_crossentropy和binary_crossentropy的区别 一、总结 一句话总结: A)、见名知意即可,其实从名字上也可以看出来binary=二元,不可以用于多分类任务, B)、简单地说,binary_crossentropy经常搭配sigmoid分类函数,cat 阅读全文
posted @ 2020-09-15 22:20 范仁义 阅读(1334) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 5.1、手写数字识别-层方式 一、总结 一句话总结: 1、记得归一化:train_x = train_x/255 2、one_hot编码之后,损失函数是:categorical_crossentropy 3、输入数据记得打平:model.add(tf.keras.l 阅读全文
posted @ 2020-09-15 20:22 范仁义 阅读(682) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 4.1、逻辑回归实例-层方式 一、总结 一句话总结: 可以看到,相比于mse损失函数,cross entropy函数无论是收敛速度,还是最后的测试集的准确率都更加优秀 # 构建容器 model = tf.keras.Sequential() # 输出层 model. 阅读全文
posted @ 2020-09-15 16:47 范仁义 阅读(206) 评论(0) 推荐(0)
摘要: 交叉熵损失函数(作用及公式推导) 一、总结 一句话总结: $$C = - \frac { 1 } { n } \sum _ { x } [ y \ln a + ( 1 - y ) \ln ( 1 - a ) ]$$ 1、平方差损失函数的不足? 使用平方差损失函数训练ANN,看到的实际效果是,如果误差 阅读全文
posted @ 2020-09-15 13:08 范仁义 阅读(10938) 评论(0) 推荐(1)
摘要: 交叉熵损失函数小结 一、总结 一句话总结: 交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。 1、交叉熵损失函数和平方差损失函数的区别? [①]、平方差所惩罚的是与损失为同一数量级的情形 [②]、分类问题用交叉熵损失函数,因为分类问题是概率:对于分 阅读全文
posted @ 2020-09-15 12:20 范仁义 阅读(275) 评论(0) 推荐(0)
摘要: pandas的随机打乱数据集sample函数 一、总结 一句话总结: [甲]、设置frac=0.5表示随机抽取50%的数据 [乙]、df=df.sample(frac=1.0) #打乱所有数据 二、pandas:sample函数解释 转自或参考:pandas:sample函数解释http://blo 阅读全文
posted @ 2020-09-15 01:42 范仁义 阅读(1784) 评论(0) 推荐(0)
摘要: pandas库疑难问题 1、pandas打乱数据集 一、总结 一句话总结: pandas可以用sample方法返回random sample,可以用reset_index方法reset打乱之后的index df=df.sample(frac=1.0) #打乱所有数据 df=df.reset_inde 阅读全文
posted @ 2020-09-15 00:17 范仁义 阅读(975) 评论(0) 推荐(0)