摘要:        
Tensorflow2(预课程) 7.6、cifar10分类-层方式-卷积神经网络-Inception10 一、总结 一句话总结: InceptionNet:一层内使用不同尺寸卷积核,提升感知力使用批标准化,缓解梯度消失 InceptionNet:1、1*1卷积;2、3*3卷积+1*1卷积;3、5*    阅读全文
posted @ 2020-09-21 23:41
范仁义
阅读(411)
评论(0)
推荐(0)
        
            
        
        
摘要:        
什么是线性变换和非线性变换 一、总结 一句话总结: [①]、从数值意义上,变换即函数,线性变换就是一阶导数为常数的函数,譬如y=kx,把y=kx拓展为n维空间的映射,x、y看做n维向量,当k为常数时,易得满足同质性f(ka)=kf(a),当k为一个矩阵时,易得满足可加性f(a+b)=f(a)+f(b    阅读全文
posted @ 2020-09-21 20:48
范仁义
阅读(6814)
评论(0)
推荐(0)
        
            
        
        
摘要:        
CIFAR-10图片分类准确率网站 一、总结 一句话总结: https://paperswithcode.com/sota/image-classification-on-cifar-10 二、CIFAR-10图片分类准确率网站 博客对应课程的视频位置:    阅读全文
posted @ 2020-09-21 20:14
范仁义
阅读(341)
评论(0)
推荐(0)
        
            
        
        
摘要:        
Tensorflow2(预课程) 7.7、cifar10分类-层方式-卷积神经网络-ResNet18 一、总结 一句话总结: 可以看到ResNet18得到的结果比较稳定,测试集准确率在81左右,感觉batchsize好像对准确率有影响 # 构建容器 model = tf.keras.Sequenti    阅读全文
posted @ 2020-09-21 19:19
范仁义
阅读(435)
评论(1)
推荐(0)
        
            
        
        
摘要:        
深入理解Batch Normalization批标准化 一、总结 一句话总结: BN就是通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布 1、为什么bn操作可以解决过拟合(实例分析)? A、假设没有经过BN调整前x的原先正态分布均值是-6,方差是    阅读全文
posted @ 2020-09-21 11:09
范仁义
阅读(342)
评论(0)
推荐(0)
        
            
        
        
摘要:        
Global Average Pooling是否可以替代全连接层 一、总结 一句话总结: (A)、Global Average Pooling(简称GAP,全局池化层)技术被认为是可以替代全连接层的一种新技术。 (B)、在keras发布的经典模型中,可以看到不少模型甚至抛弃了全连接层,转而使用GAP    阅读全文
posted @ 2020-09-21 10:04
范仁义
阅读(557)
评论(0)
推荐(0)
        
            
        
        
摘要:        
残差网络ResNet笔记 一、总结 一句话总结: ResNet核心是解决了增加深度带来的副作用(退化问题),这样能够通过单纯地增加网络深度,来提高网络性能。 1、网络的深度为什么重要? 因为CNN能够提取low/mid/high-level的特征,网络的层数越多,意味着能够提取到不同level的特征    阅读全文
posted @ 2020-09-21 08:52
范仁义
阅读(326)
评论(0)
推荐(0)
        
            
        
        
摘要:        
python疑难问题 9、Python类中call函数的作用 一、总结 一句话总结: call函数可以把类变成函数来调用 class Demo(): def __init__(self, name): self.name = name def __call__(self): print(self.n    阅读全文
posted @ 2020-09-21 06:39
范仁义
阅读(362)
评论(0)
推荐(0)
        
            
        
        
摘要:        
Python类call函数的作用 一、总结 一句话总结: call函数可以把类变成函数来调用 class Demo(): def __init__(self, name): self.name = name def __call__(self): print(self.name) Demo('大虫子    阅读全文
posted @ 2020-09-21 06:14
范仁义
阅读(1188)
评论(0)
推荐(0)
        
            
        
        
摘要:        
Keras kernel_initializer 一、总结 一句话总结: (1)、keras不同的层可能使用不同的关键字来传递初始化方法,一般来说指定初始化方法的关键字是kernel_initializer 和 bias_initializer (2)、model.add(Conv2D(64,(3,    阅读全文
posted @ 2020-09-21 05:25
范仁义
阅读(4283)
评论(0)
推荐(0)
        
            
        
        
摘要:        
model.fit中的callbacks是做什么的 一、总结 一句话总结: keras的callback参数可以帮助我们实现在训练过程中的适当时机被调用。实现实时保存训练模型以及训练参数。 二、keras深度训练1:fit和callback 转自或参考:keras深度训练1:fit和callback    阅读全文
posted @ 2020-09-21 03:00
范仁义
阅读(3851)
评论(0)
推荐(0)
        
            
        
        
摘要:        
Tensorflow2(预课程) 7.5、cifar10分类-层方式-卷积神经网络-VGG16 一、总结 一句话总结: 可以看到,cifar10用vgg16分类,测试集准确率有86.50 # 构建容器 model = tf.keras.Sequential() # 卷积层:CBA model.add    阅读全文
posted @ 2020-09-21 01:34
范仁义
阅读(458)
评论(0)
推荐(0)
        
 
    
 
 浙公网安备 33010602011771号
浙公网安备 33010602011771号