12 2018 档案
摘要:1.索引简介 索引是存储引擎用于快速查找记录的一种数据结构,通过合理的使用数据库索引可以大大提高系统的访问性能。 大大减轻了服务器需要扫描的数据量,从而提高了数据的检索速度 索引就好比一本书的目录,它会让你更快的找到内容,显然目录(索引)并不是越多越好,假如这本书1000页,有500也是目录,它当然
阅读全文
摘要:1.常见字符集 GBK:双字节编码 UTF-8: 1~4字节,汉字占3个字节 2.mysql支持的字符集简介 mysql可以在同一台服务器、同一数据库、同一个表的不同字段可以指定不同的字符集 查看所有字符集:show character set; select * from information_
阅读全文
摘要:1.char和varchar 存储字符串,char是固定长度的字符类型,varchar是可变长度的字符串类型 char固定长度,处理速度比varchar快,但是缺点是浪费存储空间,程序需要对行尾空格进行处理 myisam:建议使用char memory:都使用固定长度的数据类型 InnoDB:建议使
阅读全文
摘要:1.简介 决策树(decision tree):是一种基本的分类与回归方法 决策树学习的目标:根据给定的训练数据集构建一个决策树模型,使它能够对实例进行正确的分类 决策树学习的本质:从训练集中归纳出一组分类规则,或者说是由训练数据集估计条件概率模型 决策树学习的损失函数:正则化的极大似然函数 决策树
阅读全文
摘要:1.简介 logistic回归又称logistic回归分析,是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域 例如,探讨引发疾病的危险因素,并根据危险因素预测疾病发生的概率 2.概念 logistic回归是一种广义线性回归(generalized linear model)
阅读全文
摘要:1.tf.clip_by_value 将一个张量中的数值限制在一个范围内 常用:避免一些运算错误(比如log0是无效的) cross_entropy=-tf.reduce_mean(y_*tf.log(tf.clip_by_value(y,1e-10,1.0))) 2.tf.where() wher
阅读全文
摘要:1.交叉熵 它描述两个概率分布之间的距离,当交叉熵小时说明两者之间越接近,它是分类问题中使用比较广的一种损失函数 2.回归问题中常用的均方误差MSE 回归问题解决的是具体数值的预测,比如放假预测、销售预测等都是回归问题,这些问题需要预测的不是一个事先定义好的类别,而是一个任意的实数, 解决回归问题的
阅读全文
摘要:1.梯度下降法(Gradient Descent) 梯度下降法是最基本的一类优化器,目前主要分为三种梯度下降法: 标准梯度下降法(GD, Gradient Descent) 随机梯度下降法(SGD, Stochastic Gradient Descent) 批量梯度下降法(BGD, Batch Gr
阅读全文
摘要:1.理论 双向循环神经网络(BRNN)的基本思想是提出每一个训练序列向前和向后分别是两个循环神经网络(RNN),而且这两个都连接着一个输出层。 这个结构提供给输出层输入序列中每一个点的完整的过去和未来的上下文信息 六个独特的权值在每一个时步被重复的利用,六个权值分别对应:输入到向前和向后隐含层(w1
阅读全文
摘要:1.基本理论 双向 RNN 结合时间上从序列起点开始移动的 RNN 和另一个时间上从序列末尾开始移动的 RNN 2.逻辑图 其中 h (t) 代表通过时间向前移动的子 RNN 的状态,g (t) 代表通过时间向后移动的子 RNN 的状态 允许输出单元 o (t) 能够计算同时依赖于过去和未来且对时刻
阅读全文
摘要:1.用于处理序列数据的神经网络 s (t) = f(s (t−1) ;θ) 2.循环神经网络
阅读全文
摘要:1.卷积运算 卷积的第一个参数(在这个例子中,函数 x)通常叫做输入(input),第二个参数(函数 w)叫做核函数(kernel function)。 输出有时被称作特征映射(feature map) 2.动机 卷积运算通过三个重要的思想来帮助改进机器学习系统: 稀疏交互(sparseintera
阅读全文
摘要:1.随机梯度下降 保证SGD收敛的一个充分条件是 线性衰减学习率直到第 τ 次迭代: 其中 α =k/τ 。在 τ 步迭代之后,一般使 ϵ 保持常数 通常 τ 被设为需要反复遍历训练集几百次的迭代次数。通常 ϵ τ 应设为大约 ϵ 0 的 1%。主要问题是如何设置 ϵ 0 。若 ϵ 0 太大,学习曲
阅读全文
摘要:1.深度学习中的正则化 提高泛化能力,防止过拟合 大多数正则化策略都会对估计进行正则化,估计的正则化以偏差的增加换取方差的减少 正则化方法是在训练数据不够多时,或者over training时,常常会导致过拟合(overfitting)。这时向原始模型引入额外信息,以便防止过拟合和提高模型泛化性能的
阅读全文

浙公网安备 33010602011771号