微信扫一扫打赏支持
上一页 1 ··· 48 49 50 51 52 53 54 55 56 ··· 498 下一页
摘要: 《python深度学习》笔记 5.1、卷积神经网络简介 一、总结 一句话总结: 弄清楚为什么不同卷积核为什么得到的是不同的特征图 为什么下采样采用最大池化层(为什么不是渐进卷积层或平均池化) 1、dense层的名字? 密集连接层 2、密集连接层和卷积层的根本区别? Dense层是全局模式:Dense 阅读全文
posted @ 2020-10-08 21:47 范仁义 阅读(475) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 5、CNN的多个卷积核为什么能提取到不同的特征 一、总结 一句话总结: 过滤器的权重是随机初始化的 只有卷积核学习到不同的特征,才会减少成本函数 随机初始化的权重可能会确保每个过滤器收敛到成本函数的不同的局部最小值。每个过滤器开始模仿其他过滤器是不可能的,因为这几乎肯定 阅读全文
posted @ 2020-10-08 20:44 范仁义 阅读(1303) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 5、卷积神经网络识别图像比密集连接层好的根本原因 一、总结 一句话总结: 平移不变性:【右下角学到某个模式之后,它可以在任何地方识别这个模式】:卷积神经网络学到的模式具有平移不变性(translation invariant)。卷积神经网络在图像 右下角学到某个模式之后 阅读全文
posted @ 2020-10-08 18:09 范仁义 阅读(184) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 4.5、机器学习的通用工作流程 一、总结 一句话总结: 开发过拟合的模型。 基于模型在验证数据上的性能来进行模型正则化与调节超参数 1、广泛使用的分类指标ROC AUC 就不能被直接优化? 优化 ROC AUC 的替代指标:因此在分类任务 中,常见的做法是优化 ROC 阅读全文
posted @ 2020-10-08 17:11 范仁义 阅读(141) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 4.4、过拟合与欠拟合(解决过拟合常见方法) 一、总结 一句话总结: 减小网络大小 添加权重正则化 添加 dropout 正则化 1、机器学习的根本问题? 优化和泛化之间的对立:机器学习的根本问题是优化和泛化之间的对立。 2、机器学习的根本问题是优化和泛化之间的对立:优 阅读全文
posted @ 2020-10-07 23:41 范仁义 阅读(738) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 4.3、数据预处理、特征工程和特征学习 一、总结 一句话总结: 神经网络的数据预处理:向量化、标准化、处理缺失 值和特征提取。 特征工程:利用你自己关于数据和机器学习算法(这里指神经网络)的知识对数据进行硬编码的变换(不是模型学到的),以改善模型的效果。 1、神经网络的 阅读全文
posted @ 2020-10-07 21:32 范仁义 阅读(390) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 4.1-4.2、机器学习的四个分支 一、总结 一句话总结: 弄清楚分类便于构建知识架构:监督学习、无监督学习、自监督学习、强化学习 1、虽然监督学习主要包括分类和回归,但还有更多的奇特变体,主要包括如下几种? 序列生成(sequence generation):给定一张 阅读全文
posted @ 2020-10-07 20:29 范仁义 阅读(208) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 3.6、预测房价:回归问题 一、总结 一句话总结: (404, 13)对应模型输入是13维度:因为train_data的结构是(404, 13),也就是13维,所以模型输入维度就是13维 输出层一个神经元拟合任何数:因为是回归问题,所以输出层就是只有一个神经元的dens 阅读全文
posted @ 2020-10-07 02:57 范仁义 阅读(483) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 3.5、路透社数据集:多分类问题 一、总结 一句话总结: 对于文字分类,可以转化为类似one_hot的方式,也就是单词数字对应的位置为1 def vectorize_sequences(sequences, dimension=10000): results = np. 阅读全文
posted @ 2020-10-07 01:31 范仁义 阅读(553) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 3.4-2、(a)电影评论分类:二分类问题 一、总结 一句话总结: 输入模型的数据转化:电影评论分类-二分类问题要注意输入模型的数据转化: 把出现的单词对应的数字的位置标为1:将数据集中的每条数据采用类似one_hot编码的方式,就是把出现这个单词的位置的编号这里的数置 阅读全文
posted @ 2020-10-06 23:43 范仁义 阅读(318) 评论(0) 推荐(0)
上一页 1 ··· 48 49 50 51 52 53 54 55 56 ··· 498 下一页