Loading

摘要: 特殊应用 人脸识别 首先简单介绍一下人脸验证(face verification)和人脸识别(face recognition)的区别。 人脸验证:输入一张人脸图片,验证输出与模板是否为同一人,即一对一问题。 人脸识别:输入一张人脸图片,验证输出是否为K个模板中的某一个,即一对多问题。 一般地,人脸 阅读全文
posted @ 2021-06-15 15:18 mmmhongyu 阅读(189) 评论(0) 推荐(0)
摘要: 目标检测 目标定位 之前学的是利用CNN进行图像分类。接下来将继续深入介绍目标定位和目标检测(包含多目标检测)。 图片分类任务我们已经熟悉了,就是算法遍历图片,判断其中的对象是不是汽车,这就是图片分类。 另一个问题是定位分类问题。这意味着,我们不仅要用算法判断图片中是不是一辆汽车,还要在图片中标记出 阅读全文
posted @ 2021-06-15 15:15 mmmhongyu 阅读(361) 评论(0) 推荐(0)
摘要: 深度卷积神经网络 经典网络 LeNet-5模型是Yann LeCun教授于1998年提出来的,它是第一个成功应用于数字识别问题的卷积神经网络。在MNIST数据中,它的准确率达到大约99.2%。典型的LeNet-5结构包含CONV layer,POOL layer和FC layer,顺序一般是CONV 阅读全文
posted @ 2021-06-15 15:13 mmmhongyu 阅读(261) 评论(0) 推荐(0)
摘要: 卷积神经网络 计算机视觉 机器视觉(Computer Vision)是深度学习应用的主要方向之一。一般的CV问题包括以下三类: Image Classification Object detection Neural Style Transfer 比如在一个无人驾驶项目中,你不一定非得识别出图片中的 阅读全文
posted @ 2021-06-15 15:08 mmmhongyu 阅读(409) 评论(0) 推荐(0)
摘要: 误差分析 对已经建立的机器学习模型进行错误分析(error analysis)十分必要,而且有针对性地、正确地进行error analysis更加重要。 举个例子,猫类识别问题,已经建立的模型的错误率为10%。为了提高正确率,我们发现该模型会将一些狗类图片错误分类成猫。一种常规解决办法是扩大狗类样本 阅读全文
posted @ 2021-06-15 15:02 mmmhongyu 阅读(433) 评论(0) 推荐(0)
摘要: 机器学习策略-上 正交化 机器学习中有许多参数、超参数需要调试。通过每次只调试一个参数,保持其它参数不变,而得到的模型某一性能改变是一种最常用的调参策略,我们称之为正交化方法(Orthogonalization)。 Orthogonalization的核心在于每次调试一个参数只会影响模型的某一个性能 阅读全文
posted @ 2021-06-15 14:59 mmmhongyu 阅读(262) 评论(0) 推荐(0)
摘要: 超参调试 深度神经网络需要调试的超参数(Hyperparameters)较多,包括: \(α\) :学习因子 \(β\) :动量梯度下降因子 \(\beta_1,\beta_2,\varepsilon\) :Adam算法参数 #layers:神经网络层数 #hidden units:各隐藏层神经元个 阅读全文
posted @ 2021-06-15 14:56 mmmhongyu 阅读(434) 评论(0) 推荐(0)
摘要: 优化算法 小批量梯度下降 (略) 之前我们介绍的神经网络训练过程是对所有m个样本,称为batch,通过向量化计算方式,同时进行的。如果m很大,例如达到百万数量级,训练速度往往会很慢,因为每次迭代都要对所有样本进行进行求和运算和矩阵运算。我们将这种梯度下降算法称为Batch Gradient Desc 阅读全文
posted @ 2021-06-15 14:52 mmmhongyu 阅读(444) 评论(0) 推荐(0)
摘要: 深度学习的实践层面 数据集的相关问题 在配置训练、验证和测试数据集的过程中做出正确决策会在很大程度上帮助大家创建高效的神经网络。训练神经网络时,我们需要做出很多决策,例如: 神经网络分多少层 每层含有多少个隐藏单元 学习速率是多少 各层采用哪些激活函数 创建新应用的过程中,我们不可能从一开始就准确预 阅读全文
posted @ 2021-06-15 14:47 mmmhongyu 阅读(219) 评论(0) 推荐(0)
摘要: 深层神经网络 目前为止我们学习了只有一个单独隐藏层的神经网络的正向传播和反向传播,还有逻辑回归,并且你还学到了向量化,这在随机初始化权重时是很重要。 本周所要做的是把这些理念集合起来,就可以执行你自己的深度神经网络。 复习下前三周的课的内容: 1.逻辑回归,结构如下图左边。一个隐藏层的神经网络,结构 阅读全文
posted @ 2021-06-15 14:40 mmmhongyu 阅读(672) 评论(0) 推荐(1)
摘要: 单层神经网络 神经网络概述 (省略) 本周你将学习如何实现一个神经网络。在我们深入学习具体技术之前,我希望快速的带你预览一下本周你将会学到的东西。如果这个视频中的某些细节你没有看懂你也不用担心,我们将在后面的几个视频中深入讨论技术细节。 现在我们开始快速浏览一下如何实现神经网络。上周我们讨论了逻辑回 阅读全文
posted @ 2021-06-15 14:14 mmmhongyu 阅读(2363) 评论(0) 推荐(0)
摘要: 神经网络的编程基础 逻辑回归 (省略学过的部分,只整理有些值得记录的地方,或者没学过的知识) 深度学习中的符号约定和之前学的机器学习当中的有些不同。 在深度学习中,逻辑回归的参数设为$w\in{R^}\(,其输出值为\)\hat y=sigmoid(wT+b)$,这个$b$类似于$\theta_0$ 阅读全文
posted @ 2021-06-15 09:28 mmmhongyu 阅读(293) 评论(0) 推荐(0)
摘要: 深度学习 (省略) (因为这一节讲的内容和吴恩达机器学习课程里面的内容重复,故而省略) 阅读全文
posted @ 2021-06-15 09:25 mmmhongyu 阅读(88) 评论(0) 推荐(0)
摘要: 应用实例:图片OCR 图像光学字符识别(optical character recognition)应用所作的事是,从一张给定的图片中识别文字。 这比从一份扫描文档中识别文字要复杂的多。 为了实现这样的应用,通常要经过以下过程: 文字检测(text detection):将图片上的文字与其他环境对象 阅读全文
posted @ 2021-06-15 09:23 mmmhongyu 阅读(188) 评论(0) 推荐(0)
摘要: 大规模机器学习 所谓大规模机器学习,即是处理大数据集的方法。近年来机器学习技术飞速发展,其重要原因是现在有了海量的数据来训练算法。这一章学习能够处理海量数据的算法。 大规模机器学习有其特有的问题,具体来说是计算代价的问题。 假设现有一个样本m=100000000的数据集,这对于现代机器学习问题来说, 阅读全文
posted @ 2021-06-15 09:21 mmmhongyu 阅读(219) 评论(0) 推荐(0)
摘要: 推荐系统 推荐系统广泛地应用在生产当中,如,亚马逊推荐新书给你,淘宝试图推荐新商品给你,等等。这些推荐系统,根据浏览你过去买过什么书,或过去买过什么商品来判断。这些系统会带来很大一部分收入,比如为亚马逊和像阿里巴巴这样的公司。因此,对推荐系统性能的改善,将对这些企业的有实质性和直接的影响。 但是推荐 阅读全文
posted @ 2021-06-15 09:18 mmmhongyu 阅读(149) 评论(0) 推荐(0)
摘要: 异常检测 异常检测(Anomaly detection)问题是机器学习算法的一个常见应用。这个算法的一个有趣之处在于:它虽然主要用于非监督学习问题,但从某些角度看,它又类似于一些监督学习问题。 何为异常检测? 假想你是一个飞机引擎制造商,当你生产的飞机引擎从生产线上流出时,你需要进行QA(质量控制测 阅读全文
posted @ 2021-06-15 09:15 mmmhongyu 阅读(272) 评论(0) 推荐(0)
摘要: 降维 降维可以压缩数据,使得数据占用较少的磁盘空间,还可以加速学习算法。 数据压缩 下面看这样一个例子: 假设这个数据集中的样本有两个特征,两个特征都表示物体的长度,因此是高度冗余的,那么我们会希望将这个2维数据压缩到1维。(因为都是四舍五入之后的数据,所以画出来不会在一条直线上。) 把不同的样本用 阅读全文
posted @ 2021-06-15 09:09 mmmhongyu 阅读(258) 评论(0) 推荐(0)
摘要: 聚类 无监督学习使用的是无标签的数据,研究的是数据之间隐藏的内在结构。 K-Means算法(K均值聚类算法) 因此,我们希望有一种算法能够自动地将这些数据,分成有紧密关系的子集(簇,cluster)。 K-Means算法是现在最为广泛运用的聚类算法。下面通过图像具体说明执行过程: 有这样一个数据集, 阅读全文
posted @ 2021-06-15 09:03 mmmhongyu 阅读(346) 评论(0) 推荐(0)
摘要: 支持向量机(Support Vector Machines SVM) 支持向量机是一个二分类模型。比起逻辑回归和神经网络,SVM在学习某些复杂的非线性方程时能够提供一种更为清晰和更为强大的方式。 首先回顾一下之前所学过的逻辑回归的假设函数: \(h_\theta(x)=g(z)=g(\theta^T 阅读全文
posted @ 2021-06-15 08:58 mmmhongyu 阅读(267) 评论(0) 推荐(0)