摘要: 深度学习的运算量与运算过程的张量大小(N, C, H, W)有关。输入的张量太大,不仅不匹配最终的输出结果,还会 使计算量变大。为了能够同时减少计算量,并且得到比较小的输出,神经网络会使用池化层来对中间的特征向量 进行降采样,减小H和W的大小。池化层没有任何参数张量和缓存张量,在深度学习过程中仅仅相 阅读全文
posted @ 2021-08-21 20:23 奋斗的小仔 阅读(1357) 评论(0) 推荐(0)
摘要: PyTorch的模型通过继承nn.Moudle类,在类的内部定义子模块的实例化,通过前向计算调用子模块,最后实现 深度学习模型的搭建。 基础结构: import torch.nn as nn class MyNet(nn.Module): def __init__(self, ...): # 定义类 阅读全文
posted @ 2021-08-21 17:51 奋斗的小仔 阅读(283) 评论(1) 推荐(0)