随笔分类 - 4_深度学习(keras、tersorflow2、数据集、pytorch、深度学习花书等)
摘要:《python深度学习》笔记 5.2-3、猫狗分类(基本模型) 一、总结 一句话总结: 模型的话也是比较普通的卷积神经网络,就是图像数据用的生成器:ImageDataGenerator 1、ImageDataGenerator.flow_from_directory常用参数的意思? |||-begi
阅读全文
摘要:keras的图像预处理ImageDataGenerator类 一、总结 一句话总结: 【图片生成器-“喂”一个batch_size大小的样本数据】:ImageDataGenerator()是keras.preprocessing.image模块中的图片生成器,可以每一次给模型“喂”一个batch_s
阅读全文
摘要:setting an array element with a sequence 一、总结 一句话总结: 报错原因:矩阵的列没有对齐,有的多,有的少 二、setting an array element with a sequence 转自或参考: 原因与解决: 矩阵的列没有对齐,一般情况用这个方法
阅读全文
摘要:【tensorflow2.0】模型层layers 一、总结 一句话总结: Bidirectional:双向循环网络包装器。可以将LSTM,GRU等层包装成双向循环网络。从而增强特征提取能力。 x = layers.Bidirectional(layers.LSTM(settings.LSTM_UNI
阅读全文
摘要:TensorFlow与PyTorch比较 一、总结 一句话总结: 谷歌的 Tensorflow(2015) 与 Facebook 的 PyTorch(2017),都是开源的 PyTorch 和 TensorFlow 的关键差异是它们执行代码的方式。这两个框架都基于基础数据类型张量(tensor)而工
阅读全文
摘要:Tensorflow2(预课程) 11.3.2、(a)循环神经网络实现股票预测(GRU) 一、总结 一句话总结: 这个应用不看准确率(这里不是分类问题),看loss就好了,loss低的话,预测自然准 # 构建容器 model = tf.keras.Sequential() # 输入层 model.a
阅读全文
摘要:UnkownError:Fail to find the dnn implementation. 解决方案 一、总结 一句话总结: 这意思是cudnn分配不出更多的运算资源了 二、UnkownError:Fail to find the dnn implementation. 解决方案及附加问题 转
阅读全文
摘要:tensorflow2训练报数据输入错误Failed to find data adapter 一、总结 一句话总结: 问题原因:是没有将数据(y_train、y_test)转为numpy 二、tensorflow2.0训练报数据输入错误Failed to find data adapter 转自或
阅读全文
摘要:Tensorflow2(预课程) 11.3、循环神经网络实现股票预测(GRU) 一、总结 一句话总结: 将SimpleRNN层换成GRU层即可,其它一样,非常简单 # 测试集变array并reshape为符合RNN输入要求:[送入样本数, 循环核时间展开步数, 每个时间步输入特征个数] x_test
阅读全文
摘要:Tensorflow2(预课程) 11.2、循环神经网络实现股票预测(LSTM) 一、总结 一句话总结: 将SimpleRNN层换成LSTM层即可,非常简单 # 测试集变array并reshape为符合RNN输入要求:[送入样本数, 循环核时间展开步数, 每个时间步输入特征个数] x_test, y
阅读全文
摘要:Tensorflow2(预课程) 11.1、循环神经网络实现股票预测 一、总结 一句话总结: 用了两个SimpleRNN,后面接Dropout,最后是一个dense层输出结果 model = tf.keras.Sequential([ SimpleRNN(80, return_sequences=T
阅读全文
摘要:Tensorflow2(预课程) 9.2、循环神经网络实现输入一个字母,预测下一个字母(embedding) 一、总结 一句话总结: 加上Embedding层即可,数据的输入维度变一下 print(x_train) print(y_train) [[0] [3] [2] [1] [4]] [1 4
阅读全文
摘要:Tensorflow2(预课程) 10.1、循环神经网络实现4个字母预测1个字母 一、总结 一句话总结: 网络还是一样的网络,输入数据变了而已:model = tf.keras.Sequential([SimpleRNN(3),Dense(5, activation='softmax')]) pri
阅读全文
摘要:Tensorflow2(预课程) 9.1、循环神经网络实现输入一个字母,预测下一个字母 一、总结 一句话总结: model = tf.keras.Sequential([SimpleRNN(3),Dense(5, activation='softmax')]) 二、循环神经网络实现输入一个字母,预测
阅读全文
摘要:200813_tensorflow2 6、LSTM的用途(杂) 一、总结 一句话总结: 长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的
阅读全文
摘要:Tensorflow2(预课程) 7.6、cifar10分类-层方式-卷积神经网络-Inception10 一、总结 一句话总结: InceptionNet:一层内使用不同尺寸卷积核,提升感知力使用批标准化,缓解梯度消失 InceptionNet:1、1*1卷积;2、3*3卷积+1*1卷积;3、5*
阅读全文
摘要:CIFAR-10图片分类准确率网站 一、总结 一句话总结: https://paperswithcode.com/sota/image-classification-on-cifar-10 二、CIFAR-10图片分类准确率网站 博客对应课程的视频位置:
阅读全文
摘要:Tensorflow2(预课程) 7.7、cifar10分类-层方式-卷积神经网络-ResNet18 一、总结 一句话总结: 可以看到ResNet18得到的结果比较稳定,测试集准确率在81左右,感觉batchsize好像对准确率有影响 # 构建容器 model = tf.keras.Sequenti
阅读全文
摘要:Keras kernel_initializer 一、总结 一句话总结: (1)、keras不同的层可能使用不同的关键字来传递初始化方法,一般来说指定初始化方法的关键字是kernel_initializer 和 bias_initializer (2)、model.add(Conv2D(64,(3,
阅读全文
摘要:model.fit中的callbacks是做什么的 一、总结 一句话总结: keras的callback参数可以帮助我们实现在训练过程中的适当时机被调用。实现实时保存训练模型以及训练参数。 二、keras深度训练1:fit和callback 转自或参考:keras深度训练1:fit和callback
阅读全文

浙公网安备 33010602011771号