[caffe]网络各层参数设置

数据层

数据层是模型最底层,提供提供数据输入和数据从Blobs转换成别的格式进行保存输出,通常数据预处理(减去均值,放大缩小,裁剪和镜像等)也在这一层设置参数实现.

参数设置:

  • name: 名称
  • type: 类型
    • Data: 从LMDB/LEVELDB读取数据和标签, 转换(http://deepdish.io/2015/04/28/creating-lmdb-in-python/) 可以使用convert_imageset转换
    • ImageData: 直接读取图片数据
    • ....
  • top: 输出数据(和下一层的bottom一样)
  • bottom: 输入数据()
  • include: 一般训练和测试的时候,模型层不一样,由include指定在哪一层出现, TRIAN/TEST
  • transform_params: 数据预处理
  • data_params: 数据参数
    • source: 数据位置
    • backend
    • batchsize: 设置batch的大小

例如,caffe中自带的mnist example

layer {
  name: "mnist" #名称
  type: "Data" #输入的是LMDB数据,前面的create_mnist.sh做了转换
  include: TRIAN  #只在训练的时候才包括(测试没有label)
  transform_param {
    scale: 0.00390625 #缩放参数
  }
  data_param {
    source: "examples/mnist/mnist_train_lmdb" #数据来源是在当前文件夹中的 mnist_train_lmdb中
    backend: LMDB
    batch_size: 64 #batch的大小
  }
  top: "data" #第一层输出data和label, 无bottom
  top: "label" #
}

--------------------------------------------------------------------------------------------------------------------------------------------------

convert_imageset [FLAGS] ROOTFOLDER/  LISTFILE DB_NAME

前面我们提到数据层中Data类型输入是LMDB/LEVELDB数据,而我们有的经常是原始图片数据,而且有可能原始图片的大小还不一致,我们需要将其转换为格式一致的可输入数据,caffe中的convert_imageset 为我们提供了这样的工具。

FLAGS:图片组参数

  • -gray: 是否以灰度图的方式打开图片,程序调用opencv库中的imread()函数来打开图片,默认为false
  • -shuffle: 是否随机打乱图片顺序,默认为false
  • -backend: 需要转换成db文件格式,可选为leveldb或lmdb默认为lmdb
  • -resize_width/resize_height: 改变图片大小,需要的时候可以使得图片大小一致,程序调用opencv的resize()函数来对图片进行缩放,默认为0,不变
  • -check_size: 检查所有的数据是否有相同的尺寸,默认为false, 不检查
  • -encoded: 是否将原图片的编码放入最终的数据,默认为false
  • -encoded_type: 与前一个参数对应,将图片编码为一个格式

ROOTFOLDER: 图片存放的绝对路径,从linux系统根目录开始

LISTFILE: 图片文件列表清单,一般为一个txt文件,一行一张图片及其类别标签

DB_NAME: 最终生成的db文件存放目录

例如:

#!/usr/bin/env sh
DATA=examples/images/cropimage/  #路径变量
rm -rf $DATA/img_train_lmdb #如果文件存在,先删除再重新创建
build/tools/convert_imageset --shuffle --gray --check_size=true  /home/vicent/caffe/examples/images/cropimage/ $DATA/batchfile.txt $DATA/img_train_lmdb

#乱序,转换为灰度,检查大小是否一致                                                   

  

--------------------------------------------------------------------------------------------------------------------------------------------------

视觉层

卷积层

卷积的目的是提取feature

  • name: 名称
  • type: 层类型
  • bottom: 输入
  • top: 输出
  • lr_mt: 学习率速率, 最终学习率是这个数乘以solver.prototxt 配置文件中的base_lr; 如果有两个lr_mt一个表示偏置学习率,一个表示权值学习率
  • num_outputs: filter的个数
  • kernel_size: 卷积核大小
  • stride: 步长
  • pad: 边缘扩充
  • weight_filler: 权值初始化, 默认为constant, 值全为0,经常用xavier, 也可设置为gaussian
  • bias_filler: 偏置初始化方法, 一般偏置初始化方法可以不设置

例如:

layer {
  name: "conv1" #名称
  type: "Convolution" #层类型
  bottom: "data" #上一层输入数据
  top: "conv1" #这一层输出数据
  param {
    lr_mult: 1  #权重学习率速率
  }
  param {
    lr_mult: 2  #偏置学习率速率
  }
  convolution_param {
    num_output: 20  #filter的个数
    kernel_size: 5    #卷积核的大小
    stride: 1  
    weight_filler {
      type: "xavier"  #权重初始化方法
    }
    bias_filler {
      type: "constant"  #偏置初始化方法
    }
  }
}

 

池化层

减少数据量和数据维度

  • kernel_size:池化核大小
  • pool: 池化方法, max, ave, stochastic
  • pad:
  • stride

 

Normalization

 

 

 

 

 

 

 
posted @ 2018-02-26 18:44  VincentCheng  阅读(1433)  评论(0编辑  收藏  举报