摘要:
nn.ReLU()是构造了一个ReLU对象,并不是函数调用,而F.ReLU()是函数调用 类似于这样来构造我们的层和块,可以比直接用nn.Sequential有更高的灵活性。当然我们也可以在我们的class中使用nn.Sequential,这样组合使用也可以提高灵活性 阅读全文
posted @ 2024-08-24 16:24
不是孩子了
阅读(19)
评论(0)
推荐(0)
摘要:
  
评论(0)
推荐(0)
摘要:
  阅读全文
posted @ 2024-08-24 10:41
不是孩子了
阅读(7)
评论(0)
推荐(0)
摘要:
 阅读全文
posted @ 2024-08-24 10:15
不是孩子了
阅读(5)
评论(0)
推荐(0)
摘要:
import torch from torch import nn from d2l import torch as d2l batch_size = 256 # 准备数据 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size) 阅读全文
posted @ 2024-08-24 10:14
不是孩子了
阅读(21)
评论(0)
推荐(0)
摘要:
1、Relu函数 2、sigmoid函数 3、tanh函数 阅读全文
posted @ 2024-08-24 09:24
不是孩子了
阅读(36)
评论(0)
推荐(0)

浙公网安备 33010602011771号