微信扫一扫打赏支持

随笔分类 -  4_深度学习(keras、tersorflow2、数据集、pytorch、深度学习花书等)

上一页 1 2 3 4 5 6 ··· 8 下一页
摘要:《python深度学习》笔记 6.4、用卷积神经网络处理序列 一、总结 一句话总结: 【卷积神经网络提取特征所以在计算机视觉表现出色】:卷积神经网络(convnet),并知道它在计算机视觉问题上表现出色,原因 在于它能够进行卷积运算,从局部输入图块中提取特征,并能够将表示模块化,同时可以高效 地利用 阅读全文
posted @ 2020-10-14 16:37 范仁义 阅读(642) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6.3、循环神经网络的高级用法 一、总结 一句话总结: 循环dropout(recurrent dropout):这是一种特殊的内置方法,在循环层中使用dropout 来降低过拟合。 堆叠循环层(stacking recurrent layers):这会提高网络的表示能 阅读全文
posted @ 2020-10-14 14:18 范仁义 阅读(325) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6.2-3、循环神经网络-理解LSTM层和GRU层 一、总结 一句话总结: SimpleRNN 并不是Keras 中唯一可用的循环层,还有另外两个:LSTM 和 GRU。在实践中 总会用到其中之一,因为 SimpleRNN 通常过于简化,没有实用价值。 1、Simple 阅读全文
posted @ 2020-10-14 01:39 范仁义 阅读(375) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6.2-2、循环神经网络-IMDB电影评论分类实例 一、总结 一句话总结: model.add(Embedding(max_features, 32)) model.add(SimpleRNN(32)) model.add(Dense(1, activation='si 阅读全文
posted @ 2020-10-14 00:38 范仁义 阅读(526) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6.1-3、word embedding-使用预训练的词嵌入 一、总结 一句话总结: 【将文本转换为能处理的格式】:将原始文本转换为神经网络能够处理的格式。 【Keras 模型的 Embedding 层】:使用 Keras 模型的 Embedding 层来学习针对特定任 阅读全文
posted @ 2020-10-13 17:07 范仁义 阅读(852) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6.1-2、word embedding-利用 Embedding 层学习词嵌入 一、总结 一句话总结: 【考虑到仅查看每条评论的前 20 个单词】:得到的验证精度约为 76%,考虑到仅查看每条评论的前 20 个单词,这个结果还是相当不错 的。 【没有考虑单词之间的关系 阅读全文
posted @ 2020-10-13 16:10 范仁义 阅读(909) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6.1、word embedding 一、总结 一句话总结: 将单词与向量相关联还有另一种常用的强大方法,就是使用密集的词向量(word vector), 也叫词嵌入(word embedding)。 1、词向量和词嵌入的关系? 词向量(word vector)也叫词嵌 阅读全文
posted @ 2020-10-13 15:57 范仁义 阅读(418) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6.1、one-hot-encoding 一、总结 一句话总结: 用的texts_to_matrix方法:one_hot_results = tokenizer.texts_to_matrix(samples, mode='binary') 这里的one-hot是bin 阅读全文
posted @ 2020-10-13 00:22 范仁义 阅读(475) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6、文本和序列 一、总结 一句话总结: 循环神经网络(recurrent neural network)和一维卷积神经网络(1D convnet):可以用来处理文本和序列的问题。 1、用于处理序列的两种基本的深度学习算法分别是 什么? 循环神经网络(recurrent 阅读全文
posted @ 2020-10-12 23:23 范仁义 阅读(231) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 6、理解 n-gram 和词袋 一、总结 一句话总结: 【不保存顺序的分词方法】:词袋是一种不保存顺序的分词方法(生成的标记组成一个集合,而不是一个序列,舍 弃了句子的总体结构),因此它往往被用于浅层的语言处理模型,而不是深度学习模型。 二元语法(2-grams)集合: 阅读全文
posted @ 2020-10-12 23:07 范仁义 阅读(622) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 5.4-3、卷积网络可视化-热力图 一、总结 一句话总结: 【一张图像的哪一部分让卷积神经网络做出了最终的分类决策】:可视化类激活的热力图,它有助于了解一张图像的哪一部分让卷积神经网络做出了 最终的分类决策。这有助于对卷积神经网络的决策过程进行调试,特别是出现分类错误的 阅读全文
posted @ 2020-10-12 16:15 范仁义 阅读(1387) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 5.4-2、卷积网络可视化-过滤器 一、总结 一句话总结: 【每一层都学习一组过滤器】:卷积神经网络中每一层都学习一组过滤器,以便将其输入表示为过滤器的组合。 【过滤器变得越来越复杂,越来越精细】:这类似于傅里叶变换将信号分解为一 组余弦函数的过程。随着层数的加深,卷积 阅读全文
posted @ 2020-10-12 15:30 范仁义 阅读(346) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 5.4-1、卷积网络可视化-可视化中间激活 一、总结 一句话总结: 【更高的层激活包含关于特定输入的信息越来越少,而关于目标的信息越来越多】:随着层数的加深,层所提取的特征变得越来越抽象。更高的层激活包含关于特定输入的信息越来越少,而关于目标的 信息越来越多(本例中即图 阅读全文
posted @ 2020-10-12 15:14 范仁义 阅读(330) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 5.3-4、猫狗分类(使用预训练网络-微调模型) 一、总结 一句话总结: 【微调是指将预训练网络的前几层解冻】:微调是指将预训练网络的前几层解冻,在猫狗分类的例子中,可以看到准确率从90到94,提高了4个百分点 【先训练好分类层】:微调的话,注意先把dense层(分类层 阅读全文
posted @ 2020-10-12 07:33 范仁义 阅读(577) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 5.3-3、猫狗分类(使用预训练网络-数据增强的特征提取) 一、总结 一句话总结: 其实就是把vgg16对应的conv_base像层一样放到Sequential中,然后对图片进行数据增强即可 model.add(conv_base) from tensorflow.ke 阅读全文
posted @ 2020-10-11 23:51 范仁义 阅读(615) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 5.3-2、猫狗分类(使用预训练网络-实战) 一、总结 一句话总结: 【卷积就是特征提取】:从预训练网络训练猫狗分类,可以更加方便的理解卷积层就是特征提取 【使用预训练网络效果非常好】:我们的验证精度达到了约90%,比上一节从头开始训练的小型模型效果要好得多。但从图 中 阅读全文
posted @ 2020-10-11 17:20 范仁义 阅读(833) 评论(0) 推荐(0)
摘要:keras读取后缀名为.h5的文件 一、总结 一句话总结: 【hdf5存储,get_weights的函数可以查看】:Keras的模型是用hdf5存储的,如果想要查看模型,keras提供了get_weights的函数可以查看: for layer in model.layers: weights = 阅读全文
posted @ 2020-10-11 15:03 范仁义 阅读(451) 评论(0) 推荐(0)
摘要:《python深度学习》笔记 5.3-1、猫狗分类(使用预训练网络) 一、总结 一句话总结: 【小型图像数据集】:想要将深度学习应用于小型图像数据集,一种常用且非常高效的方法是使用预训练网络。 【用卷积层提取的特征】:使用在ImageNet 上训练的VGG16 网络的卷积基从 猫狗图像中提取有趣的特 阅读全文
posted @ 2020-10-11 00:56 范仁义 阅读(758) 评论(0) 推荐(0)
摘要:model.fit中的validation_data的作用 一、总结 一句话总结: Data on which to evaluate the loss and any model metrics at the end of each epoch. Data on which to evaluate 阅读全文
posted @ 2020-10-10 22:52 范仁义 阅读(2236) 评论(0) 推荐(0)
摘要:tensorflow:Your input ran out of data; interrupting training. Make sure that your dataset or generator can generate at least steps_per_epoch * epochs 阅读全文
posted @ 2020-10-10 22:28 范仁义 阅读(4946) 评论(0) 推荐(0)

上一页 1 2 3 4 5 6 ··· 8 下一页