摘要: 在之前调参记录的基础上,首先,大幅度削减了自适应参数化ReLU中全连接神经元的个数,想着可以减轻训练的难度,也可以减少过拟合;然后,将Epoch增加到1000个,继续测试深度残差网络ResNet+自适应参数化ReLU激活函数在Cifar10上的效果。 自适应参数化ReLU激活函数的基本原理如下:Ke 阅读全文
posted @ 2020-06-02 16:59 世俗杂念 阅读(1028) 评论(1) 推荐(0) 编辑