会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Dsp Tian
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
9
···
79
下一页
2024年10月19日
深度学习(np,tensor,pil,cv2互转)
摘要: 在做深度学习的时候经常会在这四种格式上互转。 转换时有几个需要注意的点: 1. np和cv2都能通过cv2.imshow显示出来。 2. torchvision的transforms会把HWC转为CHW。 3. from_numpy读取的HWC还是HWC,需要额外对tensor旋转。 4. pil和
阅读全文
posted @ 2024-10-19 14:35 Dsp Tian
阅读(174)
评论(0)
推荐(0)
2024年10月3日
深度学习(模型参数直方图)
摘要: 模型参数直方图可以展示模型参数在训练过程中的分布情况。 通过直方图,可以了解模型的学习状态,识别过拟合或欠拟合问题,从而进行模型调优。 下面以ResNet18为例,显示了不同层的参数直方图。 import torchvision from matplotlib import pyplot as pl
阅读全文
posted @ 2024-10-03 11:57 Dsp Tian
阅读(91)
评论(0)
推荐(0)
2024年10月2日
深度学习(可视化卷积核)
摘要: 可视化卷积核参数对理解卷积神经网络的工作原理、优化模型性能、提高模型泛化能力有一定帮助作用。 下面以ResNet18为例,可视化了部分卷积核参数。 import torchvision from matplotlib import pyplot as plt import torch model =
阅读全文
posted @ 2024-10-02 13:56 Dsp Tian
阅读(129)
评论(0)
推荐(0)
2024年10月1日
深度学习(UNet)
摘要: 和FCN类似,UNet是另一个做语义分割的网络,网络从输入到输出中间呈一个U型而得名。 相比于FCN,UNet增加了更多的中间连接,能够更好处理不同尺度上的特征。 网络结构如下: 下面代码是用UNet对VOC数据集做的语义分割。 import torch import torch.nn as nn
阅读全文
posted @ 2024-10-01 15:10 Dsp Tian
阅读(350)
评论(0)
推荐(1)
深度学习(计算数据集均值标准差)
摘要: 深度学习中有些数据集可能不符合imagenet计算出的均值和标准差,需要根据自己的数据集单独计算。 下面这个脚本能够计算当前数据集均值和标准差。 import torch import os from PIL import Image from torchvision import transfor
阅读全文
posted @ 2024-10-01 13:21 Dsp Tian
阅读(143)
评论(0)
推荐(0)
2024年9月30日
深度学习(可视化特征图)
摘要: 深度学习骨干网络一般会包含很多层,这里写了一个脚本,可以保存骨干网络的所有特征图。 代码主要用了get_graph_node_names和create_featrue_extractor这两个函数。 get_graph_node_names是得到所有特征节点名字。 create_featrue_ex
阅读全文
posted @ 2024-09-30 22:31 Dsp Tian
阅读(169)
评论(0)
推荐(0)
Linux查看命令动态输出
摘要: 比如nvidia-smi命令会输出当前时刻显卡占用率,如果想动态监控,可以输入如下命令: watch -n 0.1 nvidia-smi
阅读全文
posted @ 2024-09-30 17:42 Dsp Tian
阅读(25)
评论(0)
推荐(0)
2024年9月15日
深度学习(FCN)
摘要: FCN是全卷积网络,用于做图像语义分割。通常将一般卷积网络最后的全连接层换成上采样或者反卷积网络,对图像的每个像素做分类,从而完成图像分割任务。 网络结构如下: 这里并没有完全按照原始网络结构实现,而是尝试upsample和convTranspose2d结合的方式,看看有什么效果。 下面代码是用VO
阅读全文
posted @ 2024-09-15 22:23 Dsp Tian
阅读(133)
评论(0)
推荐(0)
2024年8月31日
深度学习(初始化)
摘要: 深度学习训练的时候,一个好的初始化结果能使模型更容易收敛,Pytorch提供了一些初始化函数。 import torch import torch.nn as nn import matplotlib.pyplot as plt class Model(nn.Module): def __init_
阅读全文
posted @ 2024-08-31 17:21 Dsp Tian
阅读(22)
评论(0)
推荐(0)
2024年8月17日
深度学习(激活函数)
摘要: 这里实现了一下常见的激活函数。 其中prelu参数是一个可学习参数,这里设成前向传播类。 代码如下: import numpy as np import matplotlib.pyplot as plt import torch import torch.nn as nn def sigmoid(x
阅读全文
posted @ 2024-08-17 22:05 Dsp Tian
阅读(34)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
9
···
79
下一页
公告