随笔分类 - 4_深度学习(keras、tersorflow2、数据集、pytorch、深度学习花书等)
摘要:Tensorflow2(预课程) 7.4、cifar10分类-层方式-卷积神经网络-AlexNet8 一、总结 一句话总结: cifar10用AlexNet训练一下,测试集成功率有74 # 构建容器 model = tf.keras.Sequential() # 卷积层 一 model.add(tf
阅读全文
摘要:Tensorflow2(预课程) 5.3.2、手写数字识别-层方式-卷积神经网络-LeNet-5稍改 一、总结 一句话总结: 对LeNet稍微改变,改变激活函数为Relu,加上dropout层,50epoch测试集准确率有99.4+,多训练,准确率会更高 # 用到卷积神经网络的时候,需要把训练和测试
阅读全文
摘要:Tensorflow2(预课程) 5.3、手写数字识别-层方式-卷积神经网络-LeNet 一、总结 一句话总结: LeNet本来就是做手写识别的,所以用来做手写数字识别,测试集准确率有99.25 # 用到卷积神经网络的时候,需要把训练和测试的x的颜色通道数指出来 train_x = tf.resha
阅读全文
摘要:Tensorflow2(预课程) 7.3、cifar10分类-层方式-卷积神经网络-简化LeNet 一、总结 一句话总结: 全连接层前面是两个卷积层,第一个是6@5*5,第二个是16@5*5,激活函数是sigmoid,没有批标准化,没有dropout # 构建容器 model = tf.keras.
阅读全文
摘要:Tensorflow2(预课程) 5.2、手写数字识别-层方式-卷积神经网络 一、总结 一句话总结: 一、用到卷积神经网络的时候,需要把训练和测试的x的颜色通道数指出来 二、train_x = tf.reshape(train_x,[-1,28,28,1]) 三、test_x = tf.reshap
阅读全文
摘要:Keras深度学习之卷积神经网络(CNN) 一、总结 一句话总结: 卷积就是特征提取,后面可接全连接层来分析这些特征 二、Keras深度学习之卷积神经网络(CNN) 转自或参考:Keras深度学习之卷积神经网络(CNN)https://www.cnblogs.com/wj-1314/articles
阅读全文
摘要:keras中添加正则化 一、总结 一句话总结: model.add(Dense(64, input_dim=64,kernel_regularizer=regularizers.l2(0.01)) 1、keras正则化几个关键字? kernel_regularizer:施加在权重上的正则项,为ker
阅读全文
摘要:Tensorflow2(预课程) 7.2、cifar10分类-层方式-卷积神经网络 一、总结 一句话总结: 卷积层构建非常简单,就是CBAPD,注意卷积层接全连接层的时候注意flatten打平 # 构建容器 model = tf.keras.Sequential() # 卷积层 model.add(
阅读全文
摘要:200813_tensorflow2 9、卷积神经网络就是CBAPD(杂) 一、总结 一句话总结: 卷积就是特征提取器,就是C(卷积层)B(批标准化层)A(激活层)P(池化层)D(dropout层) model=tf.keras.models.Sequential([ Conv2D(filters=
阅读全文
摘要:200813_tensorflow2 8、keras中常用的layer层(杂) 一、总结 一句话总结: 拉直层:tf.keras.layers.Flatten() 全连接层:tf.keras.layers.Dense(神经元个数,activation=“激活函数“,kernel_regularize
阅读全文
摘要:Tensorflow2(预课程) 8.1、cifar100分类-层方式 一、总结 一句话总结: 全连接神经网络做cifar100分类不行,简单测试一下,准确率才20%,需要换别的神经网络 二、cifar100分类-层方式 博客对应课程的视频位置: 步骤 1、读取数据集 2、拆分数据集(拆分成训练数据
阅读全文
摘要:Tensorflow2(预课程) 7.1、cifar10分类-层方式 一、总结 一句话总结: 可以看到,用全连接层神经网络来对cifar10分类的时候,准确率只有50%左右,可以用卷积神经网络,准确率应该高很多 1、rgb3通道图片处理? 也是一样打平:model.add(tf.keras.laye
阅读全文
摘要:Tensorflow2(预课程) 6.1、fashion minist(服装分类)识别-层方式 一、总结 一句话总结: fashion minist数据集和minist数据集非常像,所以模型也可以直接用minist的,训练的效果还不错 二、fashion minist(服装分类)识别-层方式 博客对
阅读全文
摘要:Fashion MNIST数据集介绍 一、总结 一句话总结: 甲)、Fashion-MNIST和mnist数据集非常相似,都是60000训练10000测试,图片也都是28*28 乙)、不过mnist是手写数字0-9分类,Fashion MNIST是服装的分类(T恤、衣服、裤子、鞋子等) 二、Fash
阅读全文
摘要:Tensorflow2(预课程) 5.1、手写数字识别-层方式 一、总结 一句话总结: 1、记得归一化:train_x = train_x/255 2、one_hot编码之后,损失函数是:categorical_crossentropy 3、输入数据记得打平:model.add(tf.keras.l
阅读全文
摘要:Tensorflow2(预课程) 4.1、逻辑回归实例-层方式 一、总结 一句话总结: 可以看到,相比于mse损失函数,cross entropy函数无论是收敛速度,还是最后的测试集的准确率都更加优秀 # 构建容器 model = tf.keras.Sequential() # 输出层 model.
阅读全文
摘要:如何将tensor大于某个值为1,小于某个值为0 一、总结 一句话总结: 可用tf.where方法,tf.where(pridict_y>0.5,x=1,y=0)表示大于0.5取1,否则取 二、如何将tensor大于某个值为1,小于某个值为0 转自或参考:如何将tensor大于某个值为1,小于某个值
阅读全文
摘要:Tensorflow2疑难问题 3、大于某个值为1,小于某个值为0 一、总结 一句话总结: 可用tf.where方法,tf.where(pridict_y>0.5,x=1,y=0)表示大于0.5取1,否则取0 二、大于某个值为1,小于某个值为0 博客对应课程的视频位置:3、大于某个值为1,小于某个值
阅读全文
摘要:Tensorflow2(预课程) 3.1、Iris分类-层方式 一、总结 一句话总结: 我们可以很清楚的发现,输入是4维,输出是1维,并且输出是分类问题,分3类(one_hot编码后),所以对应模型可以弄成4->n->3 # 构建容器 model = tf.keras.Sequential() #
阅读全文
摘要:Jupyter notebook Tensorflow GPU Memory 释放 一、总结 一句话总结: Jupyter notebook 每次运行完tensorflow的程序,占着显存不释放。而又因为tensorflow是默认申请可使用的全部显存,就会使得后续程序难以运行。 二、Jupyter
阅读全文

浙公网安备 33010602011771号