摘要: 1 池化层(Pooling layers) 除了卷积层,卷积网络也经常使用池化层来缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性。假如输入是一个 4×4 矩阵,用到的池化类型是最大池化(max pooling),执行最大池化的树池是一个 2×2 矩阵,即f=2,步幅是 2,即s = 2,执 阅读全文
posted @ 2021-07-27 20:49 zhang-X 阅读(2272) 评论(0) 推荐(0)
摘要: 1 单层卷积网络(One layer of a convolutional network) 假设经过两次卷积运算,最终各自形成一个卷积神经网络层,然后增加偏差(它是一个实数),通过线性函数( Python 的广播机制)给这 16 个元素都加上同一偏差,然后应用非线性激活函数 ReLU,输出结果是一 阅读全文
posted @ 2021-07-27 20:46 zhang-X 阅读(172) 评论(0) 推荐(0)
摘要: 1 Padding 为了构建深度神经网络,需要学会使用的一个基本的卷积操作就是 padding,那么它是如何工作的呢? 上一节的例题可以看到,如果你用一个 3×3 的过滤器卷积一个 6×6 的图像,你最后会得到一个 4×4 的输出,也就是一个 4×4 矩阵。那是因为你的 3×3 过滤器在 6×6 矩 阅读全文
posted @ 2021-07-27 20:41 zhang-X 阅读(787) 评论(0) 推荐(0)
摘要: 1 边缘检测(Edge detection) 卷积运算是卷积神经网络最基本的组成部分,看一个例子,这是一个 6×6 的灰度图像,因为是灰度图像,所以它是 6×6×1 的矩阵,而不是 6×6×3 的,因为没有 RGB 三通道,为了检测图像中的垂直边缘,可以构造一个 3×3矩阵,像这样,它被称为过滤器, 阅读全文
posted @ 2021-07-27 20:38 zhang-X 阅读(2962) 评论(0) 推荐(0)
摘要: 1 迁移学习(Transfer learning) 有的时候神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中,例如,也许你已经训练好一个神经网络,能够识别像猫这样的对象,然后使用那些知识,或者部分习得的知识去帮助您更好地阅读 x 射线扫描图,这就是所谓的迁移学习。 具体来说,在 阅读全文
posted @ 2021-07-27 20:34 zhang-X 阅读(603) 评论(0) 推荐(0)
摘要: 1.2 Softmax 回归(Softmax regression) 有一种 logistic回归的一般形式,叫做 Softmax 回归,能让你在试图识别某一分类时做出预测,或者说是多种分类中的一个.假设你不单需要识别猫,而是想识别猫,狗和小鸡,我把猫加做类 1,狗为类 2,小鸡是类 3,如果不属于 阅读全文
posted @ 2021-07-27 20:19 zhang-X 阅读(440) 评论(0) 推荐(0)
摘要: 1.1 归一化网络的激活函数(Normalizing activations in a network) 在深度学习兴起后,最重要的一个思想是它的一种算法,叫做 Batch 归一化,Batch归一化会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定,超参数的范围会更加庞大,工作效果也很 阅读全文
posted @ 2021-07-27 20:15 zhang-X 阅读(299) 评论(0) 推荐(0)