上一页 1 2 3 4 5 6 7 8 9 10 ··· 16 下一页
摘要: 1. 损失函数、代价函数与目标函数 损失函数(Loss Function):是定义在单个样本上的,是指一个样本的误差。 代价函数(Cost Function):是定义在整个训练集上的,是所有样本误差的平均,也就是所有损失函数值的平均。 目标函数(Object Function):是指最终需要优化的函 阅读全文
posted @ 2018-10-16 19:47 理想几岁 阅读(4432) 评论(0) 推荐(0) 编辑
摘要: 目标检测模型中性能评估的几个重要参数有精确度,精确度和召回率。本文中我们将讨论一个常用的度量指标:均值平均精度,即MAP。 在二元分类中,精确度和召回率是一个简单直观的统计量,但是在目标检测中有所不同的是及时我们的物体检测器在图像中检测到物体,如果我们仍无法找到它所在的图像中的哪个位置也是无用的。由 阅读全文
posted @ 2018-10-13 20:08 理想几岁 阅读(24704) 评论(1) 推荐(0) 编辑
摘要: 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数 阅读全文
posted @ 2018-10-11 18:43 理想几岁 阅读(4123) 评论(1) 推荐(0) 编辑
摘要: 1、池化层的作用 在卷积神经网络中,卷积层之间往往会加上一个池化层。池化层可以非常有效地缩小参数矩阵的尺寸,从而减少最后全连层中的参数数量。使用池化层即可以加快计算速度也有防止过拟合的作用。 2、为什么max pooling要更常用? 通常来讲,max-pooling的效果更好,虽然max-pool 阅读全文
posted @ 2018-10-09 15:35 理想几岁 阅读(3902) 评论(0) 推荐(0) 编辑
摘要: 在较深的网络,如多层CNN或者非常长的RNN,由于求导的链式法则,有可能会出现梯度消失(Gradient Vanishing)或梯度爆炸(Gradient Exploding )的问题。 原理 问题:为什么梯度爆炸会造成训练时不稳定而且不收敛? 梯度爆炸,其实就是偏导数很大的意思。回想我们使用梯度下 阅读全文
posted @ 2018-10-02 18:34 理想几岁 阅读(6371) 评论(0) 推荐(1) 编辑
摘要: 1. SGD Batch Gradient Descent 在每一轮的训练过程中,Batch Gradient Descent算法用整个训练集的数据计算cost fuction的梯度,并用该梯度对模型参数进行更新: 优点: cost fuction若为凸函数,能够保证收敛到全局最优值;若为非凸函数, 阅读全文
posted @ 2018-09-29 23:06 理想几岁 阅读(6441) 评论(0) 推荐(0) 编辑
摘要: 前一篇讲述了TensorFlow object detection API的安装与配置,现在我们尝试用这个API搭建自己的目标检测模型。 一、准备数据集 本篇旨在人脸识别,在百度图片上下载了120张张钧甯的图片,存放在/models/research/object_detection下新建的imag 阅读全文
posted @ 2018-09-17 18:13 理想几岁 阅读(39503) 评论(15) 推荐(2) 编辑
摘要: 目标检测在图形识别的基础上有了更进一步的应用,但是代码也更加繁琐,TensorFlow专门为此开设了一个object detection API,接下来看看怎么使用它。 object detection API 配置 首先,能到目标检测了应该至少已经安装好了TensorFlow及其相关依赖。这里主要 阅读全文
posted @ 2018-09-17 16:23 理想几岁 阅读(6371) 评论(0) 推荐(0) 编辑
摘要: 看到一篇循序渐进讲R-CNN、Fast R-CNN、Faster R-CNN演进的博文,写得非常好,摘入于此,方便查找和阅读。 object detection,就是在给定的图片中精确找到物体所在位置,并标注出物体的类别。object detection要解决的问题就是物体在哪里,是什么这整个流程的 阅读全文
posted @ 2018-09-13 00:38 理想几岁 阅读(6613) 评论(0) 推荐(1) 编辑
摘要: 一、学习单步的RNN:RNNCell 如果要学习TensorFlow中的RNN,第一站应该就是去了解“RNNCell”,它是TensorFlow中实现RNN的基本单元,每个RNNCell都有一个call方法,使用方式是:(output, next_state) = call(input, state 阅读全文
posted @ 2018-09-12 18:00 理想几岁 阅读(2281) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 16 下一页