摘要:
(一)Liner Layers线性层 b 是偏移量bias 代码输入: import torch import torchvision from torch import nn from torch.nn import Linear from torch.utils.data import Data 阅读全文
posted @ 2022-08-01 16:03
helloWorldhelloWorld
阅读(241)
评论(0)
推荐(0)
摘要:
如果神经元的输出是输入的线性函数,而线性函数之间的嵌套任然会得到线性函数。如果不加非线性函数处理,那么最终得到的仍然是线性函数。所以需要在神经网络中引入非线性激活函数。 常见的非线性激活函数主要包括Sigmoid函数、tanh函数、ReLU函数、Leaky ReLU函数,这几种非线性激活函数的介绍在 阅读全文
posted @ 2022-08-01 15:00
helloWorldhelloWorld
阅读(180)
评论(0)
推荐(0)
摘要:
(一)神经网络的骨架 nn.Module import torch from torch import nn class Tudui(nn.Module): def __init__(self): super().__init__() def forward(self, input): output 阅读全文
posted @ 2022-08-01 10:15
helloWorldhelloWorld
阅读(65)
评论(0)
推荐(0)
摘要:
batch_size:有多少张 shuffle=True:顺序不打乱 num_workers: 进程数 drop_last:最后不够64张是否舍去 import torchvision from torch.utils.data import DataLoader # 1 from torch.ut 阅读全文
posted @ 2022-08-01 09:37
helloWorldhelloWorld
阅读(34)
评论(0)
推荐(0)