摘要:
数据增强(Data augmentation) 或许最简单的数据增强方法就是垂直镜像对称,假如,训练集中有这张图片,然后将其翻转得到右边的图像,实际是做了一个镜像对称,如果镜像操作保留了图像中想识别的物体的前提下,这是个很实用的数据增强技巧。 另一个经常使用的技巧是随机裁剪,给定一个数据集,然后开始 阅读全文
posted @ 2021-07-29 15:07
zhang-X
阅读(1401)
评论(0)
推荐(0)
摘要:
1.1 1×1 卷积(Network in Network and 1×1 convolutions) 输入一张 6×6×1 的图片,然后对它做卷积,起过滤器大小为 1×1×1,结果相当于把这个图片乘以数字 2,但这仅仅是对于6×6×1 的一个通道图片来说,1×1 卷积效果不佳。如果是一张 6×6× 阅读全文
posted @ 2021-07-29 15:06
zhang-X
阅读(303)
评论(0)
推荐(0)
摘要:
残差网络(ResNets)(Residual Networks (ResNets)) 非常非常深的神经网络是很难训练的,因为存在梯度消失和梯度爆炸问题。习跳跃连接(Skip connection),它可以从某一层网络层获取激活,然后迅速反馈给另外一层,甚至是神经网络的更深层。我们可以利用跳跃连接构建 阅读全文
posted @ 2021-07-29 15:03
zhang-X
阅读(1227)
评论(0)
推荐(0)
摘要:
经典网络(Classic networks) 经典的神经网络结构,分别是 LeNet-5、AlexNet 和 VGGNet。 第一个是 LeNet-5 的网络结构,假设你有一张 32×32×1 的图片,LeNet-5 可以识别图中的手写数字,比如像这样手写数字 7,LeNet-5 是针对灰度图片训练 阅读全文
posted @ 2021-07-29 15:02
zhang-X
阅读(599)
评论(0)
推荐(0)

浙公网安备 33010602011771号