随笔分类 -  CS231N课程笔记

记录CS231N课程的学习笔记
摘要:https://www.cnblogs.com/34fj/p/9036369.html 阅读全文
posted @ 2020-05-06 21:48 重大的小鸿 阅读(143) 评论(0) 推荐(0)
摘要:原文链接:https://blog.csdn.net/weixin_38646522/article/details/79534677 一些数据预处理的标准方法有均值化数据和归一化数据。 零中心化的意义在上面已经详细的讲述了,这里就不在细讲。 归一化数据的意义在于让所有的特征都在相同的值域之内,并且 阅读全文
posted @ 2020-05-06 21:40 重大的小鸿 阅读(455) 评论(0) 推荐(0)
摘要:在上个lecture中,我们看到了任意特定层是如何生成输出的,输入数据在全连接层或者卷积层,将输入乘以权重值,之后将结果放入激活函数(非线性单元) 下面是一些激活函数的例子,有在之前使用过的sigmoid函数,之前提及到的ReLU函数。这里会提及更多的激活函数,并在它们之间进行权衡。 先是之前见过的 阅读全文
posted @ 2020-02-07 17:53 重大的小鸿 阅读(363) 评论(0) 推荐(0)
摘要:原博客:https://blog.csdn.net/dawningblue/article/details/82902336 用不是特别严谨但是比较通俗的语言描述整个过程 卷积神经网络是从卷积层开始介绍的,而卷积层的介绍是从全连接层开始介绍的。 全连接层的处理方式是一次性处理一张图片的全部信息,处理 阅读全文
posted @ 2020-02-07 17:17 重大的小鸿 阅读(436) 评论(0) 推荐(0)
摘要:原博客:https://blog.csdn.net/huplion/article/details/79069365 (在此仅作学习记录作用) 一、前言 在前几篇文章中,我们学习到如何在训练集上设置权重,并由此计算出损失(loss),其中loss是由两部分组成,分别是数据损失项和正则化项目。我们最终 阅读全文
posted @ 2020-02-02 12:08 重大的小鸿 阅读(380) 评论(0) 推荐(0)
摘要:原博客:https://blog.csdn.net/sinat_36458870/article/details/82824529(此处只做学习记录用) 回顾上次的内容,其实就会发现,虽然我们构造好了损失函数,可以简单使用导数的定义解决损失函数优化问题,但是并不高效。 1. 该课程,主要是: 反向传 阅读全文
posted @ 2020-02-01 20:51 重大的小鸿 阅读(270) 评论(0) 推荐(0)
摘要:本节是cs231n笔记:最优化,并介绍了梯度下降方法,然后应用到逻辑回归中。 引言 在上一节线性分类器中提到,分类方法主要有两部分组成: 1. 基于参数的评分函数。能够将样本映射到类别的分值。 2. 损失函数。用来衡量预测标签和真实标签的一致性程度。 这一节介绍第三个重要部分:最优化(optimiz 阅读全文
posted @ 2020-01-30 22:07 重大的小鸿 阅读(179) 评论(0) 推荐(0)