摘要: 4.1什么是人脸识别 (1)人脸验证(face verification):1对1,输入一个照片或者名字或者ID,然后判断这个人是否是本人。 (2)人脸识别(face recognition):1对多,判断这个人是否是系统中的某一个人。 4.2One-shot学习 (1)比如一个公司的员工,一般每个阅读全文
posted @ 2018-07-18 20:50 ysyouaremyall 阅读(232) 评论(0) 编辑
摘要: 3.1目标定位 (1)案例1:在构建自动驾驶时,需要定位出照片中的行人、汽车、摩托车和背景,即四个类别。可以设置这样的输出,首先第一个元素pc=1表示有要定位的物体,那么用另外四个输出元素表示定位框的中心坐标和宽高,再用3个输出元素one-hot表示是三个类别中的哪一类。当第一个元素pc=0时表示是阅读全文
posted @ 2018-07-17 23:15 ysyouaremyall 阅读(195) 评论(2) 编辑
摘要: 题目:众所周知,任何一个合数(因数不止是1和本身)都可以写成几个质数相乘的形式,这几个质数叫做这个合数的质因数。例如,24=2×2×2×3.把一个合数写成几个质数相乘的形式叫做分解质因数。对于一个质数,他的质因数可定义为它本身。编写一个程序实现分解质因数。 C++实现 思路:首先编写一个函数用于判断阅读全文
posted @ 2018-07-17 12:48 ysyouaremyall 阅读(45) 评论(0) 编辑
摘要: 2.1为什么要进行实例探究 (1)就跟学编程一样,先看看别人怎么写的,可以模仿。 (2)在计算机视觉中一个有用的模型,,用在另一个业务中也一般有效,所以可以借鉴。 (3)本周会介绍的一些卷积方面的经典网络经典的包括:LeNet、AlexNet、VGG;流行的包括:ResNet、Inception,如阅读全文
posted @ 2018-07-16 22:25 ysyouaremyall 阅读(192) 评论(0) 编辑
摘要: 题目:编写一个程序,用递归的方法实现查找数组中的最大值。 C++实现 说明: (1)第一种方法是常规方法,不是使用递归,首先将第一个元素的值赋值给max,然后遍历数组,当遇到超高max的值时将其赋值给max,最后就将得到最大值。 (2)第二种方法是使用递归,递归就是讲大规模问题转成小规模的相同问题,阅读全文
posted @ 2018-07-16 12:45 ysyouaremyall 阅读(34) 评论(0) 编辑
摘要: 1.1计算机视觉 (1)计算机视觉的应用包括图像分类、目标检测、图像分割、风格迁移等,下图展示了风格迁移案例: (2)图像的特征量非常之大,比如一个3通道的1000*1000的照片,其特征为3*1000*1000达到300万,如果第一个隐藏层有1000个单元那么W[1]有20亿个参数,计算量不仅大,阅读全文
posted @ 2018-07-15 22:03 ysyouaremyall 阅读(215) 评论(0) 编辑
摘要: 题目:请说出下面图形中包含多少个三角形?请用一个程序完成计算。 C++版本 解题思路: (1)给每个交点做标记,如下: (2)总共有36条线段,如果三条线段两两之间存在交点,但一条线上(已经包含了三条线交于同一点),则可以构成三角形。如下图所示,最左边的构成三角形,右边两个不构成三角形: (3)故需阅读全文
posted @ 2018-07-15 18:52 ysyouaremyall 阅读(31) 评论(0) 编辑
摘要: 2.1进行误差分析 (1)一识别猫为案例,错误率为10%,这时系统还可以有较大提升空间,这时该往哪方面努力呢?可以通过误差分析,具体可以拿出100个分类错误的样本,然后利用表格统计每个样本分类错误的原因(如下图所示),比如很模糊,狗和猫很像,有滤镜等,一个样本出错可以同时有多个原因,统计看因为什么原阅读全文
posted @ 2018-07-15 10:34 ysyouaremyall 阅读(149) 评论(0) 编辑
摘要: 1.1为什么是ML策略 (1)当对一个实际的应用系统进行优化时,可能有很多想法:如提高数据量,提高网络深度,正则化等等,一个错误的选择可能浪费非常多的时间,本课就是让你在面对很多选择时做出正确的选择,这就是ML策略。提高效率,让你的深度学习系统更快投入使用。 1.2正交化 (1)使用以下的老式电视机阅读全文
posted @ 2018-07-14 19:36 ysyouaremyall 阅读(162) 评论(0) 编辑
摘要: 3.1调试处理 (1)不同超参数调试的优先级是不一样的,如下图中的一些超参数,首先最重要的应该是学习率α(红色圈出),然后是Momentum算法的β、隐藏层单元数、mini-batch size(黄色圈出)、再之后是Layer、learning rate decay(紫色圈出)、最后是Adam算法中阅读全文
posted @ 2018-07-14 13:30 ysyouaremyall 阅读(171) 评论(2) 编辑
摘要: 题目:我们把只含有因子2、3、5的数称为丑数。例如6、8都是丑数,而14不是丑数,因为它含有因子7.通常也把1当做丑数。编程找出1500以内的全部丑数。注意:使用的算法效率应尽量高。 C++实现: (1)说明:总共使用了两种办法,第一种算法效率低,编程简单,第二种算法效率高,编程相对复杂。 (2)方阅读全文
posted @ 2018-07-13 21:16 ysyouaremyall 阅读(29) 评论(2) 编辑
摘要: 题目:有10个任意的正整数,将其分为两组A和B,要求组A中每个数据的和与组B中每个数据的和之差的绝对值最小。请设计算法实现数的分组(找出一个答案即可)。 C++版本: 思路:可以用一个10位的二进制数表示,对应位置为零时,分给一个组,为1时分给另外一个组;任何一个数都可以分给组A或者组B两种情况,故阅读全文
posted @ 2018-07-13 19:02 ysyouaremyall 阅读(10) 评论(0) 编辑
摘要: 2.1Mini-batch梯度下降 (1)例如有500万个训练样本,这时可以每1000个组成一个Mini-batch,共用5000个Mini-batch。主要是为了加快训练。 (2)循环完所有的训练样本称为(1 epoch)。 (3)使用大括号X{t},Y{t}表示一个Mini-batch。(小括号阅读全文
posted @ 2018-07-11 22:37 ysyouaremyall 阅读(214) 评论(1) 编辑
摘要: 丢番图的一生1/6是童年,青少年时代占了他一生的1/12,随后1/7他说过着独身的生活,结婚后5年他生了一个儿子,他感到很幸福,可是这孩子的生命只有他父亲的一半,儿子去世后,丢番图就在深深痛苦中活了4年,结束了生命,请问丢番图活了多少岁?丢番图的一生1/6是童年,青少年时代占了他一生的1/12,随后阅读全文
posted @ 2018-07-11 19:58 ysyouaremyall 阅读(81) 评论(0) 编辑
摘要: 1.1训练,验证,测试集(Train/Dev/Test sets) (1)深度学习是一个按照下图进行循环的快速迭代的过程,往往需要多次才能为应用程序找到一个称心的神经网络。 (2)在机器学习中,通常将样本分成训练集,验证集和测试集三部分,数据规模相对较小,适合传统的划分比例(如6:2:2),数据集规阅读全文
posted @ 2018-07-10 23:27 ysyouaremyall 阅读(254) 评论(0) 编辑
摘要: A、B、C、D、E5个渔夫夜间合伙捕鱼,各自在河边的树丛中休息。待日上三竿,渔夫A第一个醒来,他将鱼分作5份,把多余的一条扔回河中,拿自己的一份回家了。渔夫B第二个醒来,也将鱼分作5份,扔掉多余的一条,拿走自己的一份,接着后三个也按同样的办法分鱼,问5个渔夫至少合伙捕了多少条鱼。阅读全文
posted @ 2018-07-10 13:14 ysyouaremyall 阅读(29) 评论(0) 编辑
摘要: 4.1深层神经网络 (1)到底是深层还是浅层是一个相对的概念,不必太纠结,以下是一个四层的深度神经网络: (2)一些符号定义: a[0]=x(输入层也叫做第0层) L=4:表示网络的层数 g:表示激活函数 第l层输出用a[l],最终的输出用a[L]表示 n[1]=5:表示第一层有五个神经元,第l层神阅读全文
posted @ 2018-07-09 23:19 ysyouaremyall 阅读(113) 评论(0) 编辑
摘要: 3.1神经网络概述 (1)神经网络每个单元相当于一个逻辑回归,神经网络由逻辑回归的堆叠起来。下图是网络结构: 针对网络结构进行计算: 1.第一层的正向传播 2.第一层的反向传播 3.第二层的反向传播(正向只要把微分符号去掉即可) 3.2神经网络的表示 (1)神经网络各层分别较输入层、掩藏层和输出层,阅读全文
posted @ 2018-07-09 21:52 ysyouaremyall 阅读(51) 评论(0) 编辑
摘要: 2.1二分类 (1)以一张三通道的64×64的图片做二分类识别是否是毛,输出y为1时认为是猫,为0时认为不是猫: y输出是一个数,x输入是64*64*3=12288的向量。 (2)以下是一些符号定义(数据集变成矩阵之后进行矩阵运算代替循环运算,更加高效) x:表示一个nx维数据,维度为(nx,1) 阅读全文
posted @ 2018-07-08 17:42 ysyouaremyall 阅读(157) 评论(2) 编辑
摘要: 1.1欢迎 主要讲了五门课的内容: 第一门课:神经网络基础,构建网络等; 第二门课:神经网络的训练技巧; 第三门课:构建机器学习系统的一些策略,下一步该怎么走(吴恩达老师新书《Machine Learning Yearning》就是针对这个以及上一课); 第四门课:卷积神经网络相关; 第五门课:循环阅读全文
posted @ 2018-07-08 14:33 ysyouaremyall 阅读(142) 评论(0) 编辑