微信扫一扫打赏支持

200813_tensorflow2---9、卷积神经网络就是CBAPD(杂)

200813_tensorflow2---9、卷积神经网络就是CBAPD(杂)

一、总结

一句话总结:

卷积就是特征提取器,就是C(卷积层)B(批标准化层)A(激活层)P(池化层)D(dropout层)
model=tf.keras.models.Sequential([
    Conv2D(filters=6,kernel_size=(5,5),padding='same'),#卷积层
    BatchNormalization(),#BN层
    Activation('relu'),#激活层
    MaxPoo12D(pool_size=(2,2),strides=2,padding='same'),#池化层
    Dropout(0.2),#dropout层
])

 

 

1、要使卷积核的通道数与输入特征图的通道数一致?

比如rgb三通道的图,可以使用3*3*3的卷积核或者5*5*3的卷积核

 

 

2、卷积神经网络中全零填充和非全零填充怎么表示?

全零填充:padding="SAME"
非全零填充:padding="VALID"

 

3、卷积层常用参数?

壹、filters=卷积核个数,
贰、kernel_size=卷积核尺寸,#正方形写核长整数,或(核高h,核宽w)
叁、strides=滑动步长,#横纵向相同写步长整数,或(纵向步长h,横向步长w),默认1
肆、padding="same"or"valid",#使用全零填充是“same”,不使用是“valid”(默认)
tf.keras.layers.Conv2D(
    filters=卷积核个数,
    kernel_size=卷积核尺寸,#正方形写核长整数,或(核高h,核宽w)
    strides=滑动步长,#横纵向相同写步长整数,或(纵向步长h,横向步长w),默认1
    padding="same"or"valid"#使用全零填充是“same”,不使用是“valid”(默认)
    activation="relu"or"sigmoid"or"tanh"or"softmax"等,#如有BN此处不写
    input_shape=(高,宽,通道数)#输入特征图维度,可省略
)

 

 

4、BN(批标准化)层位置和BN层作用?

BN层作用:对一小批数据(batch),使数据符合0均值,1为标准差的分布。
BN层位置:BN层加在卷积层和激活层之间

 

 

5、池化操作常用参数?

①、pool_size=池化核尺寸,#正方形写核长整数,或(核高h,核宽w)
②、strides=池化步长,#步长整数,或(纵向步长h,横向步长w),默认为pool size
③、padding="valid"or"same"#使用全零填充是"same",不使用是"valid"(默认)
tf.keras.layers.MaxPool2D(
    pool_size=池化核尺寸,#正方形写核长整数,或(核高h,核宽w)
    strides=池化步长,#步长整数,或(纵向步长h,横向步长w),默认为pool size 
    padding="valid"or"same"#使用全零填充是"same",不使用是"valid"(默认)
)

 

 

 

二、内容在总结中

博客对应课程的视频位置:

 

 

 
posted @ 2020-09-17 03:18  范仁义  阅读(467)  评论(0)    收藏  举报