09 2017 档案

摘要:一、深层神经网络 神经网络符号: 输入数据层:layer0,不包括在层数中 n[l]:第l层包含的神经元数目 二、前向和反向传播 z[l] = w[l] * a[l-1] + b[l] a[l] = g[l](z[l]) 向量化: Z[l] = W[l] * A[l-1] + b[l] A[l] = 阅读全文
posted @ 2017-09-17 02:26 crazybird123 阅读(223) 评论(0) 推荐(0)
摘要:列表是什么 输出: ['jim', 'lilei', 'lucy']jimJim 输出: jim lilei lucylucy lilei jim 输出: ['lily', 'lilei', 'lucy']['lily', 'lilei', 'lucy', 'xiaoming']['lily', ' 阅读全文
posted @ 2017-09-15 00:49 crazybird123 阅读(140) 评论(0) 推荐(0)
摘要:1、变量 在程序中可随时修改变量的值,python始终记录变量的最新值 变量名:必须以字母或者下划线开头,只能包含字母数字和下划线,建议使用下划线+小写字母的方式命名,不能为函数名和python关键字 输出: onetwo 2、字符串 输出: Hello World, I Am Happy Haha 阅读全文
posted @ 2017-09-14 22:48 crazybird123 阅读(258) 评论(0) 推荐(0)
摘要:第二周 神经网络基础 2.1 二分分类 二分类:训练一个分类器,输入图片的特征向量x,预测结果的标签是0还是1 输入rgb图片尺寸为64*64,则输入特征向量(列向量)x为64*64*3 写法:m个训练样本 { (x(1) ,y(1)), (x(2) ,y(2)),...,(x(m) ,y(m))} 阅读全文
posted @ 2017-09-12 01:25 crazybird123 阅读(413) 评论(0) 推荐(0)
摘要:1、公式 p( Y | X ) = P( X | Y) * P(Y) / P(X) P(Y,X) = P(Y|X)*P(X) = p(X|Y)*P(Y) P(Y):先验概率 P(Y|X):后验概率 P(Y,X):联合概率 机器学习中将X看作特征,Y看作类别,即求具有某特征的前提下,求出属于某类别的概 阅读全文
posted @ 2017-09-10 00:45 crazybird123 阅读(343) 评论(0) 推荐(0)
摘要:第一周 深度学习的实用层面 1.1 训练、验证、测试集 应用机器学习是个高度迭代的过程:想法 >编码 >实验 (1)神经网络的层数 (2)隐含层神经元个数 (3)学习率 (4)激励函数 小规模数据:训练集70%,验证集30% 或者 训练60% 验证20% 测试20% 大规模数据:训练90%以上 注: 阅读全文
posted @ 2017-09-09 19:59 crazybird123 阅读(262) 评论(0) 推荐(0)
摘要:1、为什么是ML策略 例如:识别cat分类器的识别率是90%,怎么进一步提高识别率呢? 想法: (1)收集更多数据 (2)收集更多的多样性训练样本 (3)使用梯度下降训练更长时间 (4)尝试Adam代替梯度下降 (5)尝试更大的网络 (6)尝试更小的网络 (7)尝试dropout (8)尝试L2正则 阅读全文
posted @ 2017-09-09 00:44 crazybird123 阅读(546) 评论(0) 推荐(0)
摘要:<class 'numpy.ndarray'> (5,) [1 2 3 4 5] <class 'numpy.ndarray'> (6,) [1 2 3 4 5 6] <class 'numpy.ndarray'> (2, 5) [[ 1 2 3 4 5] [ 6 7 8 9 10]] (2, 5) 阅读全文
posted @ 2017-09-04 00:34 crazybird123 阅读(324) 评论(0) 推荐(0)