摘要:
1、激活函数: F.relu(x):ReLU(Rectified Linear Unit)激活函数,将输入 x 的所有负值置为0,正值保持不变。 F.sigmoid(x):Sigmoid激活函数,将输入 x 映射到(0, 1)区间。 F.tanh(x):双曲正切激活函数,将输入 x 映射到(-1, 阅读全文
posted @ 2024-07-24 16:42
风起-
阅读(219)
评论(0)
推荐(0)
摘要:
Unet网络结构学习记录导入包 #!/user/bin/python # coding=utf-8 import numpy as np import torch import torch.nn as nn 能够访问PyTorch中定义的所有神经网络层(如全连接层、卷积层、池化层等)、损失函数(如交 阅读全文
posted @ 2024-07-24 16:30
风起-
阅读(362)
评论(0)
推荐(0)
浙公网安备 33010602011771号