随笔分类 - 深度学习
摘要:
本章主要介绍使用pytorch时,常用的两个法宝dir()、help() 函数,以及加载数据时的函数和方式Dataset、Dataloader
阅读全文

摘要:
本章主要介绍tensorboard遇到的问题和解决方法
阅读全文

摘要:
本文主要介绍jupyter notebook使用pytorch时的配置问题
阅读全文

摘要:
本文主要写在进行深度学习的时候,使用pytorch需要安装的软件
阅读全文

摘要:
本文主要来一步一步构建深度神经网络,通过构建两层神经网络模型进而构建L层神经网络模型,最后再对所构成的模型进行预测
阅读全文

摘要:
本文主要介绍了深层神经网络,是上一节浅层神经网络的拓展和归纳。首先,我们介绍了建立神经网络模型一些常用的标准的标记符号。 然后,用流程块图的方式详细推导正向传播过程和反向传播过程的输入输出和参数表达式。 接着,我们也从提取特征复杂性和计算量的角度分别解释了深层神经网络为什么优于浅层神经网络。然后,我们介绍了超参数的概念,解释了超参数与参数的区别。最后,我们将神经网络与人脑做了类别,人工神经网络是简化的人脑模型。
阅读全文

摘要:
本文主要是练习神经网络中的一些题目,从神经网络的相关模型到最后训练模型并打印结果
阅读全文

摘要:
本节课主要介绍了浅层神经网络。首先,我们简单概述了神经网络的结构:包括输入层,隐藏层和输出层。然后,我们以计算图的方式推导了神经网络的正向输出,并以向量化的形式归纳出来。接着,介绍了不同的激活函数并做了比较,实际应用中根据不同需要选择合适的激活函数。激活函数必须是非线性的,不然神经网络模型起不了任何作用。然后,我们重点介绍了神经网络的反向传播过程以及各个参数的导数推导,并以矩阵形式表示出来。最后,介绍了权重随机初始化的重要性,必须对权重W进行随机初始化操作。
阅读全文

摘要:
本文我们主要介绍了神经网络基础——python和向量化。在深度学习程序中,使用向量化和矩阵运算的方法能够大大提高运行速度,节省时间。以逻辑回归为例,我们将其算法流程包括梯度下降转换为向量化的形式。 同时,我们也介绍了python的相关编程方法和技巧。
阅读全文

摘要:
本文主要介绍了神经网络的基础——逻辑回归。首先,我们介绍了二分类问题,以图片为例,将多维输入x转化为feature vector,输出y只有{0,1}两个离散值。接着,我们介绍了逻辑回归及其对应的Cost function形式。然后,我们介绍了梯度下降算法,并使用计算图的方式来讲述神经网络的正向传播和反向传播两个过程。最后,我们在逻辑回归中使用梯度下降算法,总结出最优化参数w和b的算法流程。
阅读全文

摘要:
本章主要对深度学习进行了简要概述。 首先,我们使用房价预测的例子来建立最简单的单个神经元组成的神经网络模型。然后,我们将例子复杂化,建立标准的神经网络模型结构。 接着,我们从监督式学习入手,介绍了不同的神经网络类型,包括Standard NN,CNN和RNN。不同的神经网络模型适合处理不同类型的问题。
阅读全文

摘要:
本篇文章主要介绍如何使用numpy中的函数一步一步实现神经网络中的logistic回归
阅读全文

摘要:
本文学习使用python中的numpy函数来解决深度学习中的一些数学函数
阅读全文

摘要:
本章主要联系python中的numpy的相关函数,包含exp()、sum()、dot()等,来解决相关的sigmoid函数,S型梯度,广播和softmax函数以及损失函数
阅读全文
