10 2017 档案
摘要:1. print大法 2. math和numpy的区别:math只对单个元素,numpy会broadcasting。 3. 定义函数 4. shape和reshape:array的维度是从最外层[]开始数,最外层[]的元素数量就是第一个维度的大小,最内层[]的元素数量是最后一个维度的大小。array
阅读全文
摘要:1. 计算深度神经网络的时候,尽量向量化数据,不要用for循环。唯一用for循环的地方是依次在每一层做计算。 2. 最常用的检查代码是否有错的方法是检查算法中矩阵的维度。 正向传播: 对于单个样本,第i层网络 z[i] = W[i]a[i-1] + b[i], a[i] = f[i](z[i])。
阅读全文
摘要:1. 第i层网络 Z[i] = W[i]A[i-1] + B[i],A[i] = f[i](Z[i])。 其中, W[i]形状是n[i]*n[i-1],n[i]是第i层神经元的数量; A[i-1]是第i-1层的神经元,形状是n[i-1]*p,p是样本数量; B[i]形状是n[i]*p,B[i]的每一
阅读全文
摘要:1. Logistic回归是用于二分分类的算法。 对于m个样本的训练集,我们可能会习惯于使用for循环一个个处理,但在机器学习中,是把每一个样本写成一个列向量x,然后把m个列向量拼成一个矩阵X。这个矩阵是nx*m大小,nx是每个样本的特征数量,m是样本个数,X.shape=(nx,m)。也可以把特征
阅读全文
摘要:Geoffrey Hinton 1. 怀揣着对大脑如何存储记忆的好奇,Hinton本科最开始学习生物学和物理学,然后放弃,转而学习哲学;然后觉得哲学也不靠谱,转而学习心理学;然后觉得心理学在解释大脑运作方面也不给力,转而做了一段时间木匠(木匠?!木匠是什么鬼。。。要不要这么洒脱!),然后决定去试一试
阅读全文
摘要:1. 预测房价、广告点击率:典型的神经网络,standard NN。 图像:卷积神经网络,CNN。 一维序列数据,如音频,翻译:循环神经网络,RNN。 无人驾驶,涉及到图像、雷达等更多的数据类型:混合的神经网络。 2. 结构化数据:数据的数据库,每一种特征都有明确的定义,如预测房价、广告点击率。目前
阅读全文
摘要:1. 之前课程里,一个32*32*3的图像被展成3072*1的向量,左乘大小为10*3072的权重矩阵W,可以得到一个10*1的得分,分别对应10类标签。 在Convolution Layer里,图像保持原样,依旧是32*32*3,把它和一个5*5*3的filter进行卷积运算(filter和原图像
阅读全文
摘要:1. Backpropagation:沿着computational graph利用链式法则求导。每个神经元有两个输入x、y,一个输出z,好多层这种神经元连接起来,这时候已知∂L/∂z,可以求出∂L/∂x = ∂L/∂z * ∂z/∂x,∂L/∂y = ∂L/∂z * ∂z/∂y。靠这种方式可以计算
阅读全文
摘要:1. Loss function是用来量化评估当前预测的好坏,loss function越小表明预测越好。 几种典型的loss function: 1)Multiclass SVM loss:一般的SVM是针对0、1两类标签,现在是把它拓展到n类标签。它的物理意义是:现在要预测一个样本的标签,根据之
阅读全文
摘要:1. 相比于传统的人工提取特征(边、角等),深度学习是一种Data-Driven Approach。深度学习有统一的框架,喂不同的数据集,可以训练识别不同的物体。而人工提取特征的方式很脆弱,换一个物体就要重新设计特征。 2. 描述图像之间相似程度,可以直接把每个对应像素做减法,然后把差的绝对值累加起
阅读全文
摘要:1. 生物学家做实验发现脑皮层对简单的结构比如角、边有反应,而通过复杂的神经元传递,这些简单的结构最终帮助生物体有了更复杂的视觉系统。1970年David Marr提出的视觉处理流程遵循这样的原则,拿到图像后,先提取角、边、曲线等等简单的几何元素,然后再用深度信息、表面信息等更高层的复杂信息,最后是
阅读全文
浙公网安备 33010602011771号