摘要: 一层神经网络的数学形式很简单,可以看成是一个线性运算再加上一个激活函数,那么激活函数的作用是什么? 答:激活函数的作用是加入非线性因素,提高神经网络对模型的表达能力,解决线性模型不能解决的问题。举个例子:将一层神经网络用作分类器,正样本就让激活函数激活变大,负样本让激活函数激活变小,最终实现对正负样 阅读全文
posted @ 2020-07-07 17:50 Peterxiazhen 阅读(238) 评论(0) 推荐(0) 编辑
摘要: 一、一维线性回归 一维线性回归最好的解法是:最小二乘法 问题描述:给定数据集$D=\left \{ \left ( x_{1},y_{1} \right ),\left ( x_{2},y_{2} \right ),\cdots ,\left ( x_{m},y_{m} \right ) \righ 阅读全文
posted @ 2020-07-03 11:09 Peterxiazhen 阅读(2995) 评论(0) 推荐(0) 编辑
摘要: 本文是《深度学习入门之PyTorch》的读书笔记 Tensor:张量,表示多维的矩阵。 标量:0D张量,即一个点 向量:1D张量 矩阵:2D张量 3D张量与更高维度的张量 不同类型的Tensor。 32位浮点型:torch.FloatTensor,是torch.Tesnor的默认值 64位浮点型:t 阅读全文
posted @ 2020-06-30 10:49 Peterxiazhen 阅读(127) 评论(0) 推荐(0) 编辑
摘要: Q1:卷积深经网络有什么特性? 平移不变性(translation invariant):卷积神经网络学习到的模式具有平移不变性,即卷积神经网络在图像中右下角学习到某个模式之后,它可以在任何地方识别这个模式,比如左上角。视觉空间从根本上也具有平移不变性。 卷积神经网络可以学习到模式的空间层次结构。如 阅读全文
posted @ 2020-06-29 17:34 Peterxiazhen 阅读(570) 评论(0) 推荐(0) 编辑
摘要: VGG16 一、摘要 VGG-16主要采用增加卷积层的方法来加深网络,结果发现网络深度越深,网络学习的效果越好,分类能力越强。 该文表明:使用非常小的卷积滤波器(3×3)增加网络深度,当深度增加到16-19层时,可以实现对现有技术的显著改,并且对于其他图像识别的数据集也有很好的推广能力。 二、Con 阅读全文
posted @ 2020-06-28 21:50 Peterxiazhen 阅读(982) 评论(0) 推荐(1) 编辑
摘要: 声明:本文参考https://blog.csdn.net/u013733326/article/details/79907419和吴恩达老师的授课内容 一、实验的目的:使用优化的梯度下降算法,所以需要做一下几件事: 分割数据集(mini-batch) 优化梯度下降算法: 不使用任何优化算法:Batc 阅读全文
posted @ 2020-03-12 09:49 Peterxiazhen 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 给定一个长度为n的序列,共有q次操作,每次操作分为两种1和2 1、p x 将序号p处的值改为x 2、x 将序列中小于x的值变成x 思路:这道题大体上是一个线段树,用来维护区间最小值。操作1,每次将x与区间最小值进行比较,如果小的话就进行修改。比较麻烦的的是操作2,属于区间修改,一不小心就会T掉,区间 阅读全文
posted @ 2020-03-09 21:53 Peterxiazhen 阅读(118) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2020-03-03 22:16 Peterxiazhen 阅读(15) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2020-02-28 22:26 Peterxiazhen 阅读(7) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2020-02-26 21:53 Peterxiazhen 阅读(6) 评论(0) 推荐(0) 编辑