随笔分类 - 动手学习Pytorch
摘要:序章 Recurrent Neural NetWork (RNN) 用于处理序列数据,序列数据预测模型的特点是某一步的输出不仅依赖于这一步的输入,还依赖于其他步的输入或输出。传统的序列数据机器学习模型有Hidden Markov Model (隐马尔可夫模型)、Conditional Rando
阅读全文
摘要:## LSTM时间序列预测模型1. 长短期记忆(long short-term memory,LSTM)。本节将基于pytorch建立一个LSTM模型,以用于航班乘客数据的预测,这里将直接按照代码块进行解释。 https://stackabuse.com/time-series-prediction-using-lstm-with-pytorch-in-python/2. 数据的...
阅读全文
摘要:9.3 目标检测和边界框 %matplotlib inline from PIL import Image import sys sys.path.append('/home/kesci/input/') import d2lzh1981 as d2l # 展示用于目标检测的图 d2l.set_fi
阅读全文
摘要:Convolutional Neural Networks 使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大。 使用卷积层的优势: 卷积层保留输入形状。 卷积层通过滑动窗口将同一卷积核与不同
阅读全文
摘要:卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(ker
阅读全文
摘要:梯度消失、梯度爆炸以及Kaggle房价预测 梯度消失和梯度爆炸 考虑到环境因素的其他问题 Kaggle房价预测 梯度消失和梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 当神经网络的层数较多时,模型的数值稳定性容易变差。 假设一个层数为 的多层感
阅读全文
摘要:过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型
阅读全文
摘要:多层感知机(multi perceptron,MLP)。对于普通的含隐藏层的感知机,由于其全连接层只是对数据做了仿射变换,而多个仿射变换的叠加仍然是一个仿射变换,即使添加更多的隐藏层,这种设计也只能与仅含输出层的单层神经网络等价。解决问题的一个方法是引入非线性变换,对隐藏变量使用非线性变化,然后作为
阅读全文
摘要:内容太多,捡重要的讲。 在分类问题中,通常用离散的数值表示类别,这里存在两个问题。1.输出值的范围不确定,很难判断值的意义。2.真实标签是离散值,这些离散值与不确定的范围的输出值之间的误差难以衡量。 softmax运算符解决了这两个问题。它把输出值变成了值为正且和为1的概率分布。 对于一个分类问题,
阅读全文
摘要:最近参加了伯禹教育的动手学习深度学习项目,现在对第一章(线性回归)部分进行一个总结。 这里从线性回归模型之从零开始的实现和使用pytorch的简洁两个部分进行总结。 损失函数,选取平方函数来评估误差,公式如下: 1)从零开始实现 首先设置真实的权重和偏差w,b。随机生成一个二维数组并由此生成对应的真
阅读全文

浙公网安备 33010602011771号