摘要:
1.batch梯度下降法 batch 梯度下降法:对整个训练集进行梯度下降法的时候,我们必须处理整个训练数据集,然后才能进行一步梯度下降,即每一步梯度下降法需要对整个训练集进行一次处理,如果训练数据集很大的时候,处理速度就会比较慢。 2. Mini-batch 梯度下降 把m个训练样本分成若干个子集 阅读全文
posted @ 2023-02-24 21:18
forever_fate
阅读(127)
评论(0)
推荐(0)
摘要:
1. 数据集划分 对于一个需要解决的问题的样本数据,在建立模型的过程中,数据会被划分为以下几个部分: 训练集(train set):用训练集对算法或模型进行训练过程; 验证集(development set):利用验证集(又称为简单交叉验证集,hold-out cross validation se 阅读全文
posted @ 2023-02-24 20:29
forever_fate
阅读(128)
评论(0)
推荐(0)
摘要:
一、深层神经网络 1. 深层的作用 随着层数由浅到深,神经网络提取的特征也是从边缘到局部特征到整体,由简单到复杂。如果隐藏层足够多,那么能够提取的特征就越丰富、越复杂,特征复杂度与神经网络层数成正相关,模型的准确率就会越高 深层神经网络相对于又胖又浅的神经网络,可以减少神经元个数,减少计算量, 2. 阅读全文
posted @ 2023-02-24 15:27
forever_fate
阅读(66)
评论(0)
推荐(0)
摘要:
一、浅层神经网络 1. 神经网络的表示 单隐藏层神经网络是典型的浅层神经网络,两层神经网络,从隐藏层开始到输出层的层数是神经网络的总层数 x表示神经网络的输入层 后续的是隐藏层,第l层的权重W[l]维度的行等于l层神经元的个数,列等于l−1层神经元的个数;第i层常数项b[l]维度的行等于l层神经元的 阅读全文
posted @ 2023-02-24 14:38
forever_fate
阅读(234)
评论(0)
推荐(0)
摘要:
一、逻辑回归(Logistic Regression) 1. 符号定义 : x:表示一个nx维数据,为输入数据,维度为(nx,1); y:表示输出结果,取值为(0,1); (x(i),y(i)):表示第i组数据,可能是训练数据,也可能是测试数据,此处默认为训练数据; X=[x(1),x(2),x(3 阅读全文
posted @ 2023-02-24 10:55
forever_fate
阅读(90)
评论(0)
推荐(0)
摘要:
一、深度学习引言 1. 应用 对于图像应用,我们经常在神经网络上使用卷积(Convolutional Neural Network),通常缩写为CNN。对于序列数据,例如音频,语言,英语和汉语字母表或单词,作为一维时间序列(两种英文说法one-dimensional time series / te 阅读全文
posted @ 2023-02-24 09:29
forever_fate
阅读(72)
评论(0)
推荐(0)
浙公网安备 33010602011771号