2024年7月24日
摘要: 1、激活函数: F.relu(x):ReLU(Rectified Linear Unit)激活函数,将输入 x 的所有负值置为0,正值保持不变。 F.sigmoid(x):Sigmoid激活函数,将输入 x 映射到(0, 1)区间。 F.tanh(x):双曲正切激活函数,将输入 x 映射到(-1, 阅读全文
posted @ 2024-07-24 16:42 风起- 阅读(219) 评论(0) 推荐(0)
摘要: Unet网络结构学习记录导入包 #!/user/bin/python # coding=utf-8 import numpy as np import torch import torch.nn as nn 能够访问PyTorch中定义的所有神经网络层(如全连接层、卷积层、池化层等)、损失函数(如交 阅读全文
posted @ 2024-07-24 16:30 风起- 阅读(362) 评论(0) 推荐(0)