随笔分类 -  机器学习

1 2 下一页
TensorFlow 池化层
摘要:在 TensorFlow 中使用池化层 在下面的练习中,你需要设定池化层的大小,strides,以及相应的 padding。你可以参考 tf.nn.max_pool()。Padding 与卷积 padding 的原理一样。 说明 完成 maxpool 函数中所有的 TODO。 设定 strides, 阅读全文
posted @ 2018-07-04 19:35 未完代码 阅读(269) 评论(0) 推荐(0)
TensorFlow的 卷积层
摘要:用 TensorFlow 做卷积 让我们用所学知识在 TensorFlow 里构建真的 CNNs。在下面的练习中,你需要设定卷积核滤波器(filters)的维度,weight,bias。这在很大程度上来说是 TensorFlow CNNs 最难的部分。一旦你知道如何设置这些属性的大小,应用 CNNs 阅读全文
posted @ 2018-07-04 19:32 未完代码 阅读(321) 评论(0) 推荐(0)
TensorFlow 中的卷积网络
摘要:TensorFlow 中的卷积网络 是时候看一下 TensorFlow 中的卷积神经网络的例子了。 网络的结构跟经典的 CNNs 结构一样,是卷积层,最大池化层和全链接层的混合。 这里你看到的代码与你在 TensorFlow 深度神经网络的代码类似,我们按 CNN 重新组织了结构。 如那一节一样,这 阅读全文
posted @ 2018-07-04 19:26 未完代码 阅读(242) 评论(0) 推荐(0)
1x1卷积
摘要:你可能会想为什么有人会用1x1卷积,因为它关注的不是一块像素,而是一个像素,图1 图1 我们看看传统的卷积,它基本上是运行在一个小块图像上的小分类器,但仅仅是个线性分类器。图2 图2 如果你在中间加一个1x1卷积,你就用运行在一块像素上的神经网络代替了线性分类器。 在卷积操作中散步一些1x1卷积是一 阅读全文
posted @ 2018-07-04 19:18 未完代码 阅读(1508) 评论(0) 推荐(0)
最大池化
摘要:TensorFlow 最大池化 由 Aphex34 (自己的作品) CC BY-SA 4.0, 通过 Wikimedia Commons 共享 这是一个最大池化的例子max pooling 用了 2x2 的滤波器 stride 为 2。四个 2x2 的颜色代表滤波器移动每个步长所产出的最大值。 例如 阅读全文
posted @ 2018-07-04 18:50 未完代码 阅读(1718) 评论(0) 推荐(0)
CNN网络改善的方法——池化
摘要:一个能降低卷积金字塔中特征图的空间维度,目前为止,我们通过调整步幅,将滤镜每次移动几个像素。图1 从而降低特征图的尺寸。这是降低图像采样率的一种非常有效的方法。 图1 它移除了很多信息,如果我们不采用每两个卷积跳过一个的方法,二依然执行非常小的步幅,比如说1. 但是我们通过某种方法把相邻的所有卷积结 阅读全文
posted @ 2018-07-04 18:48 未完代码 阅读(2146) 评论(0) 推荐(0)
tensorflow 卷积层
摘要:TensorFlow 卷积层 TensorFlow 卷积层 TensorFlow 卷积层 TensorFlow 卷积层 TensorFlow 卷积层 TensorFlow 卷积层 让我们看下如何在 TensorFlow 里面实现 CNN。 TensorFlow 提供了 tf.nn.conv2d()  阅读全文
posted @ 2018-07-04 18:18 未完代码 阅读(180) 评论(0) 推荐(0)
CNN输出维度的计算
摘要:在 CNN 的一层中的 patch 中共享权重 w ,无论猫在图片的哪个位置都可以找到。 在 CNN 的一层中的 patch 中共享权重 w ,无论猫在图片的哪个位置都可以找到。 在 CNN 的一层中的 patch 中共享权重 w ,无论猫在图片的哪个位置都可以找到。 在 CNN 的一层中的 pat 阅读全文
posted @ 2018-07-04 17:31 未完代码 阅读(3097) 评论(0) 推荐(0)
CNN滤波器
摘要:CNN 的第一步是把图片分成小块。我们通过选取一个给定宽度和高度的滤波器来实现这一步。 滤波器会照在图片的小块 patch (图像区块)上。这些 patch 的大小与滤波器一样大。 CNN 的第一步是把图片分成小块。我们通过选取一个给定宽度和高度的滤波器来实现这一步。 滤波器会照在图片的小块 pat 阅读全文
posted @ 2018-07-04 16:34 未完代码 阅读(1466) 评论(0) 推荐(0)
CNN如何识别一幅图像中的物体
摘要:让我们对卷积神经网络如何工作形成更好直观感受。我们先看下人怎样识别图片,然后再看 CNNs 如何用一个近似的方法来识别图片。 比如说,我们想把下面这张图片识别为金毛巡回犬。 让我们对卷积神经网络如何工作形成更好直观感受。我们先看下人怎样识别图片,然后再看 CNNs 如何用一个近似的方法来识别图片。 阅读全文
posted @ 2018-07-04 16:23 未完代码 阅读(9246) 评论(0) 推荐(1)
什么是卷积?
摘要:图1 一张图片有宽和高图1,且通常一幅图像是由红绿蓝三色通道,所以它还有深度信息图2。 图2 深度为3 现在假设拿出图片的一小块,运行一个具有K个输出的小神经网络,像图3一样把输出表示为垂直的一小列 图3 在不改变权重的情况下,把这个小神经网络滑过整个图片,就像我们拿个涮子一样水平垂直地滑动。图4, 阅读全文
posted @ 2018-07-04 15:29 未完代码 阅读(669) 评论(0) 推荐(0)
windows 和 linux 安装 tensorflow
摘要:安装 跟往常一样,我们用 Conda 来安装 TensorFlow。你也许已经有了一个 TensorFlow 环境,但要确保你安装了所有必要的包。 OS X 或 Linux 运行下列命令来配置开发环境 conda create -n tensorflow python=3.5 source acti 阅读全文
posted @ 2018-06-28 09:14 未完代码 阅读(514) 评论(0) 推荐(0)
神经网络入门——16实现一个反向传播
摘要:反向传播练习 现在你来实现一个通过反向传播训练的神经网络,数据集就是之前的研究生院录取数据。通过前面所学你现在有能力完成这个练习: 你的目标是: 实现一个正向传播 实现反向传播算法 更新权重 import numpy as np from data_prep import features, tar 阅读全文
posted @ 2018-04-27 17:03 未完代码 阅读(558) 评论(0) 推荐(0)
神经网络入门——15反向传播
摘要:反向传播 如何让多层神经网络学习呢?我们已了解了使用梯度下降来更新权重,反向传播算法则是它的一个延伸。以一个两层神经网络为例,可以使用链式法则计算输入层-隐藏层间权重的误差。 要使用梯度下降法更新隐藏层的权重,你需要知道各隐藏层节点的误差对最终输出的影响。每层的输出是由两层间的权重决定的,两层之间产 阅读全文
posted @ 2018-04-27 16:59 未完代码 阅读(253) 评论(0) 推荐(0)
神经网络入门——14多层感知机
摘要:实现隐藏层 先修要求 接下来我们会讲神经网络在多层感知器里面的数学部分。讲多层感知器我们会用到向量和矩阵。你可以通过下列讲解对此做个回顾: 可汗学院的 向量入门. 可汗学院的 矩阵入门. 由来 之前我们研究的是只有一个输出节点网络,代码也很直观。但是现在我们有多个输入单元和多个隐藏单元,它们的权重需 阅读全文
posted @ 2018-04-27 16:30 未完代码 阅读(394) 评论(0) 推荐(0)
神经网络入门——13实现梯度下降
摘要:实现梯度下降 现在我们知道了如何更新我们的权重: 你看到的是如何实现一次更新,那我们如何把代码转化为能够计算多次权重更新,使得我们的网络能够真正学习呢? 作为示例,我们拿一个研究生学院录取数据,用梯度下降训练一个网络。数据可以在这里找到。数据有三个输入特征:GRE 分数、GPA 分数和本科院校排名( 阅读全文
posted @ 2018-04-27 13:50 未完代码 阅读(596) 评论(0) 推荐(0)
tensorflow入门——5tensorflow安装
摘要:你将把你学到的神经网络的知识,借助 TensorFlow ,一个 Google 开源的深度学习框架,应用在真实的数据集中。 你将使用 TensorFlow 来辨别 notMNIST 数据集。它是一个由 A 到 J 的英文字母图片组成的数据集,下面是一些示例。 你将把你学到的神经网络的知识,借助 Te 阅读全文
posted @ 2018-04-24 15:38 未完代码 阅读(282) 评论(0) 推荐(0)
神经网络入门——12梯度下降代码
摘要:梯度下降过程可参考上一篇梯度下降算法 多个输入 阅读全文
posted @ 2018-04-24 15:14 未完代码 阅读(413) 评论(0) 推荐(0)
神经网络入门——11梯度下降算法
摘要:梯度下降算法 我们已经了解到,类似图中的简单神经网络输出数据的具体过程,我们构建神经网络是为了输出预测结果。但提前不知道权重,就没法正确预测结果。 我们可以先输入正确的参数,然后根据结果调整权重。首先我们要选取衡量预测误差的标准。最容易想到的是用实际目标值y减去网络预测值 ^y 。 用两者的差值来衡 阅读全文
posted @ 2018-04-24 15:04 未完代码 阅读(836) 评论(0) 推荐(0)
神经网络入门——10.梯度下降
摘要:学习权重 你了解了如何使用感知器来构建 AND 和 XOR 运算,但它们的权重都是人为设定的。如果你要进行一个运算,例如预测大学录取结果,但你不知道正确的权重是什么,该怎么办?你要从样本中学习权重,然后用这些权重来做预测。 要了解我们将如何找到这些权重,可以从我们的目标开始考虑。我们想让网络做出的预 阅读全文
posted @ 2018-04-24 11:26 未完代码 阅读(586) 评论(0) 推荐(0)

1 2 下一页