摘要: ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240826180646219-1266113523.png) ![](https://img2024.cnblogs.com/blog/2506674/202408/2506674-20240826180658705-1776479706.png) ![](https:// 阅读全文
posted @ 2024-08-26 18:22 不是孩子了 阅读(5) 评论(0) 推荐(0)
摘要: 全局平均池化替代全连接层,一个显而易见的好处就是,参数量极大地减少了,从而也防止了过拟合 另一个角度看,是从网络结构上做正则化防止过拟合.比方说[1,10,6,6]的输入,即10个6x6的feature map,我们做全局平均池化后得到[1,10,1,1]的输出,展平后即10x1的输出,这10个标量 阅读全文
posted @ 2024-08-26 17:04 不是孩子了 阅读(38) 评论(0) 推荐(0)
摘要: import torch import torch.nn as nn from d2l import torch as d2l # 定义vgg块 def vgg_block(num, in_channels, out_channels): layers = [] for i in range(num 阅读全文
posted @ 2024-08-26 16:10 不是孩子了 阅读(16) 评论(0) 推荐(0)
摘要: import torch import torch.nn as nn from d2l import torch as d2l net = nn.Sequential(nn.Conv2d(1, 6, kernel_size=(5, 5), padding=2), nn.Sigmoid(), nn.A 阅读全文
posted @ 2024-08-26 14:53 不是孩子了 阅读(20) 评论(0) 推荐(0)
摘要: 不论有多少输⼊通道,我们还只有⼀个输出通道 对于多输出通道,图解如下 阅读全文
posted @ 2024-08-26 09:38 不是孩子了 阅读(10) 评论(0) 推荐(0)