摘要: 数据库的安装与配置 我的设备名称:MySQL5.5 我的密码:123456 1.如何启动数据库 方式一:通过计算机管理方式 右击计算机—管理—服务—启动或停止MySQL服务 方式二:通过命令行方式(这里命令行需要右击以管理员的身份运行) 启动:net start mysql服务名 停止:net st 阅读全文
posted @ 2021-07-25 20:34 zhang-X 阅读(313) 评论(0) 推荐(0)
摘要: 进阶2 条件查询 /* 语法: select 查询列表 from 表名 where 筛选条件 执行顺序: (1)from子句 (2)where子句 (3)select子句 select last_name,first_name from employees where salary>20000; 特 阅读全文
posted @ 2021-07-25 20:25 zhang-X 阅读(595) 评论(0) 推荐(0)
摘要: 1、#显示表darpartments的结构,并查询其中的全部数据 DESC `departments`; SELECT *FROM `departments`; 2、#显示表employees中的全部job_id(不能重复) SELECT DISTINCT job_id FROM `employee 阅读全文
posted @ 2021-07-25 20:22 zhang-X 阅读(72) 评论(0) 推荐(0)
摘要: 1.1 动量梯度下降法(Gradient descent with Momentum) 优化成本函数J,还有一种算法叫做 Momentum,或者叫做动量梯度下降法,运行速度几乎总是快于标准的梯度下降算法,简而言之,基本的想法就是计算梯度的指数加权平均数,并利用该梯度更新你的权重。 使用动量梯度下降法 阅读全文
posted @ 2021-07-25 20:14 zhang-X 阅读(1822) 评论(0) 推荐(0)
摘要: 指数加权平均,在统计中也叫做指数加权移动平均。 这里举一个温度的例子,首先使v0 = 0,需要使用 0.9 的加权数乘以前一天温度数值加上当日温度的0.1 倍,即v1 = 0.9v0 + 0.1θ1,所以这里是第一天的温度值。第二天,又可以获得一个加权平均数,0.9 乘以之前的值加上当日的温度 0. 阅读全文
posted @ 2021-07-25 20:08 zhang-X 阅读(865) 评论(0) 推荐(0)
摘要: 1 Mini-batch 梯度下降(Mini-batch gradient descent) 向量化能够让你相对较快地处理所有m个样本。如果m很大的话,处理速度仍然缓慢,如果m是 500 万或 5000 万或者更大的一个数,在对整个训练集执行梯度下降法时,你要做的是,你必须处理整个训练集,然后才能进 阅读全文
posted @ 2021-07-25 20:07 zhang-X 阅读(792) 评论(0) 推荐(0)
摘要: 1向量化 向量化是非常基础的去除代码中 for 循环的艺术,减少运行时间,在python中使用np.dot()进行向量化。 (1)代码举例 import time #为了计算不同方法的使用时间 a=np.random.rand(1000000) #用随机值创建了一个百万维度的数组 b=np.rand 阅读全文
posted @ 2021-07-25 15:55 zhang-X 阅读(395) 评论(0) 推荐(0)
摘要: 比如算法中的 learning rate α(学习率)、iterations(梯度下降法循环的数量)、L(隐藏层数目)、n[l](隐藏层单元数目)、choice of activation function(激活函数的选择)都需要你自己来设置,这些数字实际上控制了最后的参数w和b的值,所以它们被称作 阅读全文
posted @ 2021-07-25 15:48 zhang-X 阅读(94) 评论(0) 推荐(0)
摘要: 1 深层神经网络 1.1 深层神经网络(Deep L-layer neural network) 严格上来说逻辑回归也是一个一层的神经网络,有一个隐藏层的神经网络,就是一个两层神经网络,当我们算神经网络的层数时,我们不算输入层,我们只算隐藏层和输出层。 上图是一个四层的神经网络,有三个隐藏层,我们可 阅读全文
posted @ 2021-07-25 15:47 zhang-X 阅读(582) 评论(0) 推荐(0)
摘要: 随机初始化(Random+Initialization) 当你训练神经网络时,权重随机初始化是很重要的,如果你把权重或者参数都初始化为 0,那么梯度下降将不会起作用,是如果你这样初始化这个神经网络,那么这两个隐含单元就会完全一样,因此他们完全对称,也就意味着计算同样的函数,并且肯定的是最终经过每次训 阅读全文
posted @ 2021-07-25 15:41 zhang-X 阅读(203) 评论(0) 推荐(0)