上一页 1 2 3 4 5 6 7 8 ··· 14 下一页
摘要: 目录 mini-batch 指数加权平均 优化梯度下降法:momentum、RMSprop、Adam 学习率衰减 局部最优问题 一、mini-batch mini-batch:把训练集划分成小点的子集 为什么用mini-batch:当数据集样本数较多时,需要对整个数据计算完成后才能进行梯度下降,速度 阅读全文
posted @ 2018-04-30 21:15 huapyuan 阅读(1356) 评论(0) 推荐(0)
摘要: 目录 超参数调整 几个超参数范围选择的方法 超参数的实践:pandas VS canviar 正则化激活函数 softmax回归 一、超参数调整 重要性 从高到低:学习率$\alpha$——>$\beta$(0.9)、hidden units、minibatch size——>layers、学习率衰 阅读全文
posted @ 2018-04-30 21:15 huapyuan 阅读(2697) 评论(0) 推荐(0)
摘要: 目录 神经网络表示 激活函数 不要把所有参数都初始化为0 反向计算求导 一、神经网络表示 神经网络层数= 隐藏数+输出层(1) 输入不算是一层,可以说是第0层 第i层的值:W[1]可以用来表示是第1层的参数 激活值:当前层会传递给下一层的值如a[0]表示输入层会传给第一层的值 每一层中有多个神经元, 阅读全文
posted @ 2018-03-28 21:53 huapyuan 阅读(469) 评论(0) 推荐(0)
摘要: 目录 神经网络的符号表示 为什么用深度来表示 神经网络模块构建 参数和超参数 一、神经网络的符号表示 $L = 4$ 层数为4 $n^{[l]}=5$ 第$l$层有5个神经元 $n^{[0]}=n_x=3$ 输入层有3个特征值 $a^{[l]}$第$l$层的激活函数 $X=a^{[0]}$ $a^{ 阅读全文
posted @ 2018-03-28 21:53 huapyuan 阅读(210) 评论(0) 推荐(0)
摘要: 目录 常用标记 logistic回归 梯度下降法 计算图 向量化 一、常用标记 样本:$(x, y)$ $x$为输入,$y$为输出 输入$x$:$x\in\mathbb{R}^{n_{x}}$是一个$n_{x}$维的特征向量 输出$y$:取值为0或1 样本数量:$m$ 样本空间:$\{(x^{(1) 阅读全文
posted @ 2018-03-28 21:52 huapyuan 阅读(397) 评论(0) 推荐(0)
摘要: 开始写一系列的学习笔记,基于吴恩达的《深度学习》课程,大致一周为一篇。第一节这个没什么内容 注:文章中的很多图片也是来自该课程的 课程链接:http://mooc.study.163.com/smartSpec/detail/1001319001.htm 目录 什么是神经网络 ReLu修正线性单元 阅读全文
posted @ 2018-03-28 21:51 huapyuan 阅读(217) 评论(0) 推荐(0)
摘要: 不小心运行一下什么程序就会出现缺失xxx.dll的问题,太烦了,遇到好多,一直没有记录。现在开始记录,以便日后查看~ 1. api-ms-win-crt-runtime-l1-1-0.dll 64位系统删除C:\Windows\SysWOW64下的该dll文件 安装Microsoft Visual 阅读全文
posted @ 2018-03-09 23:34 huapyuan 阅读(302) 评论(0) 推荐(0)
摘要: js的类?其实还是原型! 基本点 1. class是关键字,class Point定义了一个“类”。其它变量名不能与类名相同 2. Point的类型(typeof):function,必须通过new来调用 class的pototype=>包含在class中所有定义的方法(包括constructor) 阅读全文
posted @ 2018-01-30 23:07 huapyuan 阅读(1015) 评论(0) 推荐(0)
摘要: 总概括 promise是js异步编程的一种解决方案 我对promise的认识(通俗):给一个承诺promise,如果未来发生的事情(异步操作)是符合满足相应条件,则接受resolve,否则失败reject。这个决定是一旦做了,就不会发生改变。根据接受或失败承诺来决定下一步then应该做什么 prom 阅读全文
posted @ 2018-01-21 22:57 huapyuan 阅读(222) 评论(0) 推荐(0)
摘要: 偶尔用到,搜到不错的资料,所以转一下: windows bat脚本for循环中对变量循环赋值 http://blog.csdn.net/u010161379/article/details/50956652 一个bat的系列教程吧 https://www.cnblogs.com/lm002003/a 阅读全文
posted @ 2018-01-12 20:58 huapyuan 阅读(113) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 ··· 14 下一页