-
第四周作业:卷积神经网络(Part2)
摘要:经典卷积神经网络模型 AlexNet 主要改进 丢弃法 ReLU MaxPooling VGG 主要改进 VGG使用可重复使用的卷积块来构建深度卷积神经网络 不同的卷积块个数和超参数可以得到不同复杂度的变种 NIN NIN块 一个卷积层后跟两个全连接层,即步幅为1的无填充的$1×1$卷积层,输出形状
阅读全文
-
第三周作业:卷积神经网络(Part1)
摘要:深度学习计算 层和块 层 通过实例化nn.Sequential来构建的模型,层的执行顺序是作为参数传递的。 import torch from torch import nn from torch.nn import functional as F net = nn.Sequential(nn.Li
阅读全文
-
第二周作业:多层感知机
摘要:多层感知机 线性回归+基础优化方法 1. 模型 线性回归假设输出与各个输入是线性关系,我们需要建立基于输入$x_1$到$x_n$来计算输出$y$的表达式,也就是模型。 2. 模型训练 通过数据来寻找特定的模型参数值,使模型在数据上的误差尽可能小。这个过程叫模型训练。 3. 损失函数 损失函数能够量化
阅读全文
-
第一次作业:深度学习基础
摘要:第一次作业:深度学习基础 本文代码使用Google的colab作为运行环境。 使用代码安装实验所需的d2l库 !pip install git+https://github.com/d2l-ai/d2l-zh@release ##与深度学习相关的数据操作 ###1.张量基本操作 torch.aran
阅读全文
|