摘要: 深度学习(十三)——损失函数与反向传播 介绍MAE、MSE、交叉熵三种损失函数计算及使用方法,以及反向传播的作用。 阅读全文
posted @ 2023-08-24 21:13 码头牛牛 阅读(406) 评论(0) 推荐(1) 编辑
摘要: 深度学习(十二)——神经网络:搭建小实战和Sequential的使用 “搭个网络真不难,像呼吸一样简单。”周华健学长如是地说(狗头) 阅读全文
posted @ 2023-08-23 19:14 码头牛牛 阅读(342) 评论(0) 推荐(1) 编辑
摘要: 深度学习(十一)——神经网络:线形层及其他层介绍 主要介绍神经网络线性层的计算,即torch.nn.Linear的原理及应用。并插入一些神经网络的其他层介绍,及调用pytorch中网络模型的方法。 阅读全文
posted @ 2023-08-22 18:05 码头牛牛 阅读(806) 评论(0) 推荐(0) 编辑
摘要: 深度学习(十)——神经网络:非线性激活 主要介绍了ReLU和Sigmiod两种非线性激活函数,以及在神经网络中进行非线性转换的目的。 阅读全文
posted @ 2023-08-05 18:17 码头牛牛 阅读(288) 评论(0) 推荐(1) 编辑
摘要: 深度学习(九)——神经网络:最大池化的作用 主要介绍神经网络中的最大池化操作,以及最大池化的作用 阅读全文
posted @ 2023-07-21 18:59 码头牛牛 阅读(356) 评论(0) 推荐(1) 编辑
摘要: 深度学习(八)——神经网络:卷积层 主要介绍神经网络中的卷积层操作,包括构建卷积层、处理图像、可视化 阅读全文
posted @ 2023-07-20 00:21 码头牛牛 阅读(120) 评论(1) 推荐(0) 编辑
摘要: 深度学习(七)——神经网络的卷积操作 关于torch.nn.functional操作的深入理解,主要介绍卷积计算过程。 阅读全文
posted @ 2023-07-19 21:13 码头牛牛 阅读(291) 评论(0) 推荐(0) 编辑
摘要: 深度学习(六)——神经网络的基本骨架:nn.Module的使用 终于卷到神经网络了 ...(˘̩̩̩ε˘̩ƪ) 阅读全文
posted @ 2023-07-14 22:50 码头牛牛 阅读(113) 评论(0) 推荐(1) 编辑
摘要: 深度学习(五)——DatadLoader的使用 我们在打扑克,一摞的扑克牌就相当于dataset,拿牌的手相当于神经网络。而dataloader相当于抽牌的过程,它可以控制我们抽几张牌,用几只手抽牌。 阅读全文
posted @ 2023-07-14 21:25 码头牛牛 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 深度学习(四)——torchvision中数据集的使用 前面的transform只是对单个数据图像的处理,本文着重讲对多个数据图像的处理,并介绍科研中常用数据集的下载方式。 阅读全文
posted @ 2023-07-14 00:09 码头牛牛 阅读(247) 评论(0) 推荐(0) 编辑