Torch7学习笔记(二)nn Package

 

神经网络Package

【目前还属于草稿版,等我整个学习玩以后会重新整理】

模块Module

module定义了训练神经网络需要的所有基础方法,并且是可以序列化的抽象类。

module有两种状态变量:output和gradInput

 

[output] forward(input)

 

利用input对象计算其对应的output。通常input和output都是Tensor类型的。有时候会有例外例如table layers(Tensor的子类)。Forward之后,output变量应该被更新为新的值了。

 不建议重写这个函数,二是应该去实现updateOutput(input)函数。

 

[gradInput] backward(input, gradOutput)

 

在module内进行反向传播,默认前向传播已经做过了且这个input应该和前向传播的input是一样的。否则梯度计算会出错。

同样的gradInput也是tensor类型,也有可能是table layers。

反向传播过程包括计算两种类型的梯度。

这个函数会调用下面两个函数

updateGradInput(input,gradOutput)

 

accGradParameters(input,gradOutput,scale).

同样的,最好不要重载backward函数,重载上面的这两个函数会好一些。

 

updateOutput(input)

这个函数利用当前参数和input计算output,其结果就保存在output属性。

 

updateGradInput(input,gradOutput)

计算这个模块的input对应的梯度,这个应用应该是在NLP中,例如词向量,它是input但是它同时是parameter,因此需要更新。

 

accGradParameters(input,gradOutput,scale)

计算模块的参数的梯度咯,如果一个模块没有参数,那么就不需要做这一步。这些参数对应的状态变量的名字是与模块有关的。

scale这个参数是在参数梯度集成之前要乘上去的一个因子。

 

type(type [,tensorCache])

可用于将所有参数转化为对应的type类型。

 tensors can be provided as inputs as well as modules

 

模块中包含模型参数以及参数的梯度

这一点非常好,免得我们自己去求导。

weight和gradWeight是它的参数名字,它们是table类型

parameters()函数

如果自己写模块要重载这个函数。

[flatParameters,,flatGradParameters] getParameters()

这个函数返回两个tensor

不能重载这个函数。

 

training()

这个函数把train属性设置为true。它的好处在于对于一些特殊的模块例如dropout,在training和evaluation过程是不一样的。

evaluate()

这个函数把train设置为false。

 

findModules(typename)

 

Containers

这个类可以轻松建立复杂的神经网络。

Container是基类,

Sequential,Parallel,Concat都是继承它,DepthCOntact继承concat类。

有两个方法

add(module)

get(index)

 

listModules()

把网络中所有的模块都列出来,其中包括container模块,self,以及其他的组件。

 

Transfer function

包括Tanh(),Sigmoid()

HardTanh()

这些非线性转换函数都是element-wise的

 

HardShrink

module = nn.HardShrink(lambda)

相当于是一个阈值函数,绝对值大于lambda的书就是他本身,否则为0.

SoftShrink

和Hard差不多只不过这次平滑化一下。

具体公式见Torch官方文档

 

SoftMax

这个不用解释了

SoftMin

哈哈 居然还有这个呢

 

SoftPlus

保证输出地全是正数;

 

 

 

再有就是Sigmoid和RELU了。这个就不再一一赘述了。

 

 

网络层类型

1.简单的类型

(需要参数的)

Linear:做线性变换

SparseLinear对sparse的输入数据进行线性变换

Add 对输入数据加上一个偏置项

Mul 对输入数据乘上一个因子

CMul component-wise乘法??

CDiv 除

Euclidean 计算输入数据到k means中心店的欧氏距离

weightedEuclidean 不用多说,加权的欧氏距离

(不需要参数,自适应的)

copy 对输入进行copy 可能会进行类型转变

Narrow 在制定维度上进行narrow操作

replicate 类似于MATLAB的repmat

reshape

view

select

 

Max

Min

Mean

Sum

这四个函数是在制定维度上做相应地操作

 

Exp,Abs,Power,Square,Sqrt,这是element-wise

Normalize 对输入进行进行L_p正则化。

MM 矩阵矩阵相乘

 

其他的模块

BatchNormalization 对一块数据标准化

Identity 恒等函数 在paralleltable中很有用

dropout

SpatialDropout

Padding 在某一维度上补充

L1Penalty 对输入加 sparsity

 

Table Layers

使用table构建更加复杂的网络结构

table是container模块的子模块

concatTable

 

posted @ 2015-09-21 17:05  kevinTien  阅读(2779)  评论(0编辑  收藏  举报