摘要:1. Abstract 本文旨在简单介绍下各种轻量级网络,纳尼?!好吧,不限于轻量级 2. Introduction 2.1 Inception 在最初的版本 Inception/GoogleNet,其核心思想是利用多尺寸卷积核去观察输入数据。举个栗子,我们看某个景象由于远近不同,同一个物体的大小也 阅读全文
posted @ 2019-08-09 22:55 xuanyuyt 阅读 (129) 评论 (0) 编辑
摘要:一. 算法概述 本文提出的SSD算法是一种直接预测目标类别和 bounding box 的多目标检测算法。与 faster rcnn相比,该算法没有生成 proposal 的过程,这就极大提高了检测速度。针对不同大小的目标检测,传统的做法是先将图像转换成不同大小(图像金字塔),然后分别检测,最后将结 阅读全文
posted @ 2017-08-29 10:51 xuanyuyt 阅读 (21673) 评论 (9) 编辑
摘要:参考 ubuntu16.04+gtx1060+cuda8.0+caffe安装、测试经历 ,细节处有差异。 首先说明,这是在台式机上的安装测试经历,首先安装的win10,然后安装ubuntu16.04双系统,显卡为GTX1060 台式机显示器接的是GTX1060 HDMI口,win10上首先安装了最新 阅读全文
posted @ 2017-04-26 16:44 xuanyuyt 阅读 (438) 评论 (3) 编辑
摘要:一、准备工作: 1.下载OpenCV安装包:https://github.com/opencv/opencv 安装过程实际上就是解压过程,安装完成后得到(这里修改了文件名): 2.下载opencv_contrib源码:https://github.com/opencv/opencv_contrib 阅读全文
posted @ 2016-12-15 16:54 xuanyuyt 阅读 (1402) 评论 (0) 编辑
摘要:一. 安装cuda8.0 1)先去官网下载cuda8.0 https://developer.nvidia.com/cuda-toolkit 2)下载完之后进行安装,安装时间有点长,请耐心等待,默认是安装在c盘目录下 安装完后会生成两个系统变量: 3)测试是否成功 : 进入cmd,输入 nvcc - 阅读全文
posted @ 2016-08-01 18:42 xuanyuyt 阅读 (13720) 评论 (43) 编辑
摘要:实现方式 以 ℓ2 Regularization 为例,主要有两种实现方式 1. 手动累加 2. 借助于 kernel_regularizer 实例验证 import tensorflow as tf # 1. create data from tensorflow.examples.tutoria 阅读全文
posted @ 2019-10-13 20:17 xuanyuyt 阅读 (5) 评论 (0) 编辑
摘要:上一篇的模型保存和恢复熟练后,我们就可以大量使用 pretrain model 来训练任务了 Tweaking, Dropping, or Replacing the Upper Layers The output layer of the original model should usually 阅读全文
posted @ 2019-10-12 21:14 xuanyuyt 阅读 (7) 评论 (0) 编辑
摘要:模型文件 tensorflow 训练保存的模型注意包含两个部分:网络结构和参数值。 .meta .meta 文件以 “protocol buffer”格式保存了整个模型的结构图,模型上定义的操作等信息。 checkpoint (.data & .index) .data 和 .index 文件合在一 阅读全文
posted @ 2019-10-12 11:01 xuanyuyt 阅读 (18) 评论 (0) 编辑
摘要:梯度修剪 梯度修剪主要避免训练梯度爆炸的问题,一般来说使用了 Batch Normalization 就不必要使用梯度修剪了,但还是有必要理解下实现的 In TensorFlow, the optimizer’s minimize() function takes care of both comp 阅读全文
posted @ 2019-10-11 10:27 xuanyuyt 阅读 (11) 评论 (0) 编辑
摘要:参考:tensorflow中的batch_norm以及tf.control_dependencies和tf.GraphKeys.UPDATE_OPS的探究 1. Batch Normalization 对卷积层来说,批量归一化发生在卷积计算之后、应用激活函数之前。训练阶段:如果卷积计算输出多个通道, 阅读全文
posted @ 2019-10-10 16:18 xuanyuyt 阅读 (17) 评论 (0) 编辑
摘要:0. tf.train.Optimizer tensorflow 里提供了丰富的优化器,这些优化器都继承与 Optimizer 这个类。class Optimizer 有一些方法,这里简单介绍下: 0.1. minimize loss: A Tensor containing the value t 阅读全文
posted @ 2019-10-10 15:18 xuanyuyt 阅读 (5) 评论 (0) 编辑
摘要:In general ELU > leaky ReLU(and its variants) > ReLU > tanh > logistic. If you care a lot about runtime performance, then you may prefer leaky ReLUs o 阅读全文
posted @ 2019-10-10 11:01 xuanyuyt 阅读 (8) 评论 (0) 编辑
摘要:file: tensorflow/python/training/learning_rate_decay.py 参考:tensorflow中常用学习率更新策略 神经网络中通过超参数 learning rate,来控制每次参数更新的幅度。学习率太小会降低网络优化的速度,增加训练时间;学习率太大则可能导 阅读全文
posted @ 2019-10-04 20:58 xuanyuyt 阅读 (36) 评论 (0) 编辑
摘要:方法定义 tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=True, data_format="NHWC", dilations=[1,1,1,1], name=None) 参数: input: 输入的要做卷积的数据体,要 阅读全文
posted @ 2019-10-03 16:07 xuanyuyt 阅读 (32) 评论 (0) 编辑
摘要:基本使用 使用graph来表示计算任务 在被称之为Session的上下文中执行graph 使用tensor表示数据 通过Variable维护状态 使用feed和fetch可以为任意的操作(op)赋值或者取数据 综述 TensorFlow 是一个编程系统, 使用图来表示计算任务. 图中的节点被称之为  阅读全文
posted @ 2019-10-03 16:06 xuanyuyt 阅读 (21) 评论 (0) 编辑