微信扫一扫打赏支持
上一页 1 ··· 55 56 57 58 59 60 61 62 63 ··· 498 下一页
摘要: 神经网络激励函数的作用是什么 一、总结 一句话总结: sigmoid激活函数可以引入非线性因素,让模型学习到一个分类平面,得到一个非线性的决策边界,如下图 二、机器学习中线性函数与非线性函数的区别 转自或参考:机器学习中线性函数与非线性函数的区别http://blog.csdn.net/WONITA 阅读全文
posted @ 2020-09-22 21:03 范仁义 阅读(245) 评论(0) 推荐(0)
摘要: 深度学习中,交叉熵损失函数为什么优于均方差损失函数 一、总结 一句话总结: A)、原因在于交叉熵函数配合输出层的激活函数如sigmoid或softmax函数能更快地加速深度学习的训练速度 B)、因为反向传播过程中交叉熵损失函数得到的结果更加简洁,无论sigmoid或softmax,可以定量分析。 1 阅读全文
posted @ 2020-09-22 20:23 范仁义 阅读(1678) 评论(0) 推荐(0)
摘要: 偏差和方差 一、总结 一句话总结: 偏差(bias):偏差衡量了模型的预测值与实际值之间的偏离关系。 方差(variance):方差描述的是训练数据在不同迭代阶段的训练模型中,预测值的变化波动情况(或称之为离散情况)。 1、偏差和方差对应的实际情况实例? [一]、低偏差,低方差:这是训练的理想模型, 阅读全文
posted @ 2020-09-22 11:49 范仁义 阅读(2572) 评论(0) 推荐(0)
摘要: Keras中图像增强技术详解 一、总结 一句话总结: 在Keras中使用图像增强技术,对图片可以进行各种操作,以生成数倍于原图片的增强图片集。这些数据集可帮助我们有效地对抗过拟合问题,更好地生成理想的模型。 1、数据量少带来的最直接影响就是过拟合。那有没有办法在现有少量数据基础上,降低或解决过拟合问 阅读全文
posted @ 2020-09-22 11:44 范仁义 阅读(644) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 7.6、cifar10分类-层方式-卷积神经网络-Inception10 一、总结 一句话总结: InceptionNet:一层内使用不同尺寸卷积核,提升感知力使用批标准化,缓解梯度消失 InceptionNet:1、1*1卷积;2、3*3卷积+1*1卷积;3、5* 阅读全文
posted @ 2020-09-21 23:41 范仁义 阅读(411) 评论(0) 推荐(0)
摘要: 什么是线性变换和非线性变换 一、总结 一句话总结: [①]、从数值意义上,变换即函数,线性变换就是一阶导数为常数的函数,譬如y=kx,把y=kx拓展为n维空间的映射,x、y看做n维向量,当k为常数时,易得满足同质性f(ka)=kf(a),当k为一个矩阵时,易得满足可加性f(a+b)=f(a)+f(b 阅读全文
posted @ 2020-09-21 20:48 范仁义 阅读(6814) 评论(0) 推荐(0)
摘要: CIFAR-10图片分类准确率网站 一、总结 一句话总结: https://paperswithcode.com/sota/image-classification-on-cifar-10 二、CIFAR-10图片分类准确率网站 博客对应课程的视频位置: 阅读全文
posted @ 2020-09-21 20:14 范仁义 阅读(341) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 7.7、cifar10分类-层方式-卷积神经网络-ResNet18 一、总结 一句话总结: 可以看到ResNet18得到的结果比较稳定,测试集准确率在81左右,感觉batchsize好像对准确率有影响 # 构建容器 model = tf.keras.Sequenti 阅读全文
posted @ 2020-09-21 19:19 范仁义 阅读(435) 评论(1) 推荐(0)
摘要: 深入理解Batch Normalization批标准化 一、总结 一句话总结: BN就是通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布 1、为什么bn操作可以解决过拟合(实例分析)? A、假设没有经过BN调整前x的原先正态分布均值是-6,方差是 阅读全文
posted @ 2020-09-21 11:09 范仁义 阅读(342) 评论(0) 推荐(0)
摘要: Global Average Pooling是否可以替代全连接层 一、总结 一句话总结: (A)、Global Average Pooling(简称GAP,全局池化层)技术被认为是可以替代全连接层的一种新技术。 (B)、在keras发布的经典模型中,可以看到不少模型甚至抛弃了全连接层,转而使用GAP 阅读全文
posted @ 2020-09-21 10:04 范仁义 阅读(557) 评论(0) 推荐(0)
上一页 1 ··· 55 56 57 58 59 60 61 62 63 ··· 498 下一页