随笔分类 -  深度学习-吴恩达

摘要:这个博客写的真好,mark一下。 阅读全文
posted @ 2021-05-23 20:24 Peterxiazhen 阅读(63) 评论(0) 推荐(0)
摘要:package Offer; public class Goods implements Comparable{ String name; double price; public Goods() { } public Goods(String name, double price) { this. 阅读全文
posted @ 2021-03-26 18:23 Peterxiazhen 阅读(49) 评论(0) 推荐(0)
摘要:这个$blog$详细地介绍了交叉熵损失函数,mark一下 阅读全文
posted @ 2020-11-07 18:04 Peterxiazhen 阅读(180) 评论(0) 推荐(0)
摘要:语义分割,简单地讲就是给一张图像,分割分出一个物体的准确轮廓。其实就是分类任务,而分类任务预测的结果往往就是一下四种: TP:True Positive FP:False Positive TN:True Negative FN:False Negative 其中,T/F表示预测与实际是否相符;P/ 阅读全文
posted @ 2020-11-05 22:20 Peterxiazhen 阅读(2469) 评论(1) 推荐(0)
摘要:1、首先查看显卡的情况 命令: nvidia-smi 功能:显示服务器上的GPU的情况 命令: nvidia-smi -l 功能:定时更新显示服务器上的GPU的情况 命令:watch -n 3 nvidia-smi 功能:设定刷新时间(秒)显示GPU使用情况 Fan:风扇速度 Temp:显卡温度 P 阅读全文
posted @ 2020-10-17 12:05 Peterxiazhen 阅读(9539) 评论(0) 推荐(0)
摘要:占个坑 博客讲解 model.eval PyTorch.view() PyTorch.detach().detach() np.vstack和np.hstack 基于深度卷积神经网络的图像去噪方法 基于深度学习的图像去噪(论文总结) 阅读全文
posted @ 2020-10-12 15:34 Peterxiazhen 阅读(628) 评论(0) 推荐(1)
摘要:①、感受野 在卷积神经网络(CNN)中,感受野是指卷积神经网络中每一层输出的特征图(feature map)上的每个像素点在原始图像上映射的区域大小。 ②、作用 神经元的感受野的值越大,表示其能接触到的原始图像范围就越大,也意味着它可能蕴含更为全局,语义层次更高的特征;相反,值越小则表示其所包含的特 阅读全文
posted @ 2020-09-25 16:08 Peterxiazhen 阅读(609) 评论(0) 推荐(0)
摘要:具体细节见深度学习之PyTorch(廖星宇) #基于深度神经网络的手写数字识别的PyTorch实现 import torch import torch.nn as nn import torch.optim as optim from torch.autograd import Variable f 阅读全文
posted @ 2020-07-16 16:24 Peterxiazhen 阅读(856) 评论(0) 推荐(0)
摘要:传送门(Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 原文) BN的基本思想:深层神经网络在做非线性变换前的激活输入值,随着网络深度加深或者在训练过程中,其分布 阅读全文
posted @ 2020-07-16 16:13 Peterxiazhen 阅读(863) 评论(0) 推荐(0)
摘要:主成分分析(principal component analysis,PCA) PCA利用正交变换将线性相关变量表示的观测数据转换为少数几个由线性无关变量表示的数据。 线性无关的变量称为主成分,其个数通常小于原始变量的个数,所以属于无监督学习中的降维方法。 一、PCA的解释—最大方差理论 由上图可以 阅读全文
posted @ 2020-07-16 11:37 Peterxiazhen 阅读(959) 评论(0) 推荐(0)
摘要:一层神经网络的数学形式很简单,可以看成是一个线性运算再加上一个激活函数,那么激活函数的作用是什么? 答:激活函数的作用是加入非线性因素,提高神经网络对模型的表达能力,解决线性模型不能解决的问题。举个例子:将一层神经网络用作分类器,正样本就让激活函数激活变大,负样本让激活函数激活变小,最终实现对正负样 阅读全文
posted @ 2020-07-07 17:50 Peterxiazhen 阅读(284) 评论(0) 推荐(0)
摘要:VGG16 一、摘要 VGG-16主要采用增加卷积层的方法来加深网络,结果发现网络深度越深,网络学习的效果越好,分类能力越强。 该文表明:使用非常小的卷积滤波器(3×3)增加网络深度,当深度增加到16-19层时,可以实现对现有技术的显著改,并且对于其他图像识别的数据集也有很好的推广能力。 二、Con 阅读全文
posted @ 2020-06-28 21:50 Peterxiazhen 阅读(1094) 评论(0) 推荐(1)
摘要:声明:本文参考https://blog.csdn.net/u013733326/article/details/79702148,记录学习过程中的心得体会 Python版本:3.6.x 实验目的:搭建一个能分类平面数据的浅层神经网络,它只有一个隐藏层 在这篇文章中,我们会学到以下知识: 构建具有单隐 阅读全文
posted @ 2020-01-26 22:19 Peterxiazhen 阅读(323) 评论(0) 推荐(0)
摘要:声明:本文参考 https://blog.csdn.net/u013733326/article/details/79639509,记录学习过程中的心得体会 Python版本:3.6.x 实验目的:搭建一个能够识别猫的图片的简单神经网络 实验步骤: 一、加载、处理数据 开始前引入的库: import 阅读全文
posted @ 2020-01-26 09:18 Peterxiazhen 阅读(354) 评论(0) 推荐(0)