会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
做梦当财神
首页
管理
上一页
1
···
16
17
18
19
20
21
22
23
24
···
52
下一页
2023年7月12日
双线性插值法
摘要: 1. 双线性插值法 图像放大是图像处理的基本操作。 下面利用双线性插值法进行图像放大。 示例:原图 \((3\times3)\),目标图 \((4\times4)\)。原图坐标 \((1,0)\) 的像素值 \(g(1,0) = 118\),\(g(1,1) = 126\),\(g(2,0) = 1
阅读全文
posted @ 2023-07-12 21:06 做梦当财神
阅读(316)
评论(0)
推荐(0)
2023年6月24日
深度卷积神经网络(AlexNet)
摘要: 目录1. AlexNet1.1 第一个卷积层1.2 第二个卷积层1.3 第三个卷积层1.4 第四个卷积层1.5 第五个卷积层1.6 全连接层1.7 全连接层1.8 全连接层1.9 AlexNet 网络架构2. AlexNet与LeNet5区别3. AlexNet在当时包含的新技术点 1. AlexN
阅读全文
posted @ 2023-06-24 20:35 做梦当财神
阅读(2253)
评论(0)
推荐(0)
2023年6月13日
卷积神经网络(LeNet)
摘要: 目录1. 卷积神经网络(LeNet)1.1 LeNet 1. 卷积神经网络(LeNet) \(LeNet\) 最早的卷积神经网络之一(\(1989\) 年提出)。用于银行支票上手写数字识别(\(1998\) 年杨立坤教授提出)。 1.1 LeNet \(LeNet\) \((LeNet-5)\) 由
阅读全文
posted @ 2023-06-13 21:27 做梦当财神
阅读(322)
评论(0)
推荐(0)
2023年6月11日
池化层
摘要: [toc] 在[二维卷积层](https://www.cnblogs.com/keye/p/16667638.html)里介绍的物体边缘检测,我们构造卷积核从而精确地找到了像素变化的位置。设任意二维数组 $X$ 的 $i$ 行 $j$ 列的元素为 $X[i,j]$。如果构造的卷积核输出 $Y[i,j
阅读全文
posted @ 2023-06-11 19:15 做梦当财神
阅读(92)
评论(0)
推荐(0)
2023年6月4日
权重衰减
摘要: # 1. 通常权重衰减等价于L2正则化 控制模型容量方法: - 模型变得比较小,即参数比较少。 - 参数值的选择范围比较小。 权重衰减通过限制参数值的选择范围来控制模型容量: $$ min\ \ell(\mathbf{w}, b) \ \ \ \ subject\ to\ \ ||\mathbf{w
阅读全文
posted @ 2023-06-04 21:29 做梦当财神
阅读(100)
评论(0)
推荐(0)
2023年3月20日
transforms.ToTensor()
摘要: $torchvision.transforms.functional.py$ 中to_tensor()函数源码: def to_tensor(pic) -> Tensor: """Convert a ``PIL Image`` or ``numpy.ndarray`` to tensor. This
阅读全文
posted @ 2023-03-20 10:59 做梦当财神
阅读(276)
评论(0)
推荐(0)
2023年3月6日
with torch.no_grad()
摘要: 讲述with torch.no_grad()前,先讲述requires_grad参数。 1. requires_grad 在 $torch$ 中,$tensor$ 有一个 requires_grad参数,如果设置为 $True$,则反向传播时,该 $tensor$ 就会自动求导。 $tensor$
阅读全文
posted @ 2023-03-06 23:46 做梦当财神
阅读(320)
评论(0)
推荐(0)
torch.detach()、torch.detach_()
摘要: 训练网络的时候希望保持一部分网络参数不变,只对其中一部分的参数进行调整;或训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这时可以使用detach()切断一些分支的反向传播。 1. tensor.detach() 返回一个新的 $tensor$,从当前计算图中分离下来,但仍指向原 $tenso
阅读全文
posted @ 2023-03-06 23:14 做梦当财神
阅读(420)
评论(0)
推荐(0)
2022年12月29日
torch.nn.MaxPool2d()
摘要: ```python torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False) ``` $2D$ 最大池化。 **参数:** - `kernel_
阅读全文
posted @ 2022-12-29 12:23 做梦当财神
阅读(593)
评论(0)
推荐(1)
2022年12月28日
torch.cat() 与 torch.stack() 的区别
摘要: 1. torch.cat() torch.cat(tensors, dim=0) 在给定维度中拼接张量序列。 参数: tensors:张量序列。 dim:拼接张量序列的维度。 import torch a = torch.rand(2, 3) b = torch.rand(2, 3) c = tor
阅读全文
posted @ 2022-12-28 17:56 做梦当财神
阅读(478)
评论(0)
推荐(0)
上一页
1
···
16
17
18
19
20
21
22
23
24
···
52
下一页
公告