摘要: title: Hexo添加gitalk评论插件date: 2018-10-21 19:05:44tags: Hexo配置toc: true点击访问我的博客主页Gitalk介绍Gitalk 是一个基于 Github Issue 和 Preact 开发的评论插件... 阅读全文
posted @ 2018-10-21 20:30 不知道的痛 阅读(399) 评论(0) 推荐(0) 编辑
摘要: 贝叶斯分类器原理:基于先验概率P(Y),利用贝叶斯公式计算后验概率P(Y/X)(该对象属于某一类的概率),选择具有最大后验概率的类作为该对象所属类特点:数据可离散可连续;对数据缺失、噪音不敏感;若属性相关性小,分类效果好,相关也不低于决策树朴素贝叶斯算法学习... 阅读全文
posted @ 2018-10-14 17:04 不知道的痛 阅读(6802) 评论(0) 推荐(0) 编辑
摘要: 参考文章:《Python大战机器学习》(不好,就是官方文档的中文版再加上几个简单的例子)数据挖掘十大算法–K近邻算法机器学习笔记—KNN算法常用样本相似性和距离度量方法KNN(K近邻法)输入为实例的特征向量,计算新数据与训练数据之间的距离,选取K个距离最近的... 阅读全文
posted @ 2018-10-14 17:02 不知道的痛 阅读(830) 评论(0) 推荐(0) 编辑
摘要: 导读上一篇文章写了如何爬取《The Atlantic》的新闻学习英语,这篇文章补充上一篇文章,在爬取文章段落时,同时调用翻译接口,到达如图所示的样子。如图,翻译的非常不错,借助的是彩云小译·程序猿都知道的翻译机。以下重点就是讲解如何抓包,使用彩云小译的第三方... 阅读全文
posted @ 2018-10-06 16:57 不知道的痛 阅读(1146) 评论(0) 推荐(0) 编辑
摘要: 问题提出及正则化的引入正则化的提出同样是解决模型过拟合问题,之前提出的特征组合来训练模型,当训练次数足够多时,损失会降低到非常的低,但却会出现过拟合问题。如图迭代次数足够多,模型的复杂度也越高。可见一个好的模型和损失、模型的复杂度都有关。所以,训练优化算法是... 阅读全文
posted @ 2018-09-23 19:12 不知道的痛 阅读(338) 评论(0) 推荐(0) 编辑
摘要: 今天在写数据库作业时,遇到的无法创建外键问题create table department (dept_name varchar(20), building varchar(15), budget numeric(12,2) c... 阅读全文
posted @ 2018-09-23 15:03 不知道的痛 阅读(501) 评论(0) 推荐(0) 编辑
摘要: 上次提到了通过划分数据集为训练集和测试集,并不断迭代训练模型,通过测试集对模型进行评估,进而不断调整超参数,来解决过拟合问题。但是还会出现问题 按数据集分成训练集和测试集不断迭代训练模型的方式,每次迭代时,我们都会对训练数据进行训练并评估测试数据,并以基于... 阅读全文
posted @ 2018-09-11 19:11 不知道的痛 阅读(557) 评论(0) 推荐(0) 编辑
摘要: 一直把axis 0为行 ,1为列来记的,今天再次使用时,对删除列drop中axis=1 和对行求均值时 axis=1,这里又有了些迷惑,所以特此记录。再次总结一下,axis=0 确保结果不更改列索引, axis=1 确保结果不变动行索引值(简写为axis行不... 阅读全文
posted @ 2018-09-10 20:30 不知道的痛 阅读(619) 评论(0) 推荐(0) 编辑
摘要: 泛化 (Generalization) 是什么先解释什么是泛化。Generalization,一般化,泛化。就是把训练所得模型应用于新的样本数据进行预测的过程。在模型的训练过程中,存在一种现象:模型与训练样本数据过于符合(匹配),但未必对于新的数据也有非常O... 阅读全文
posted @ 2018-09-09 21:08 不知道的痛 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 以下内容只需了解,理解更好;像梯度下降法这些机器学习算法都已经被机器学习框架所集成了,只要会用就好通过迭代减少损失梯度下降法个人对减小损失的理解理想的步长 α随机梯度下降法(SGD)小批量随机梯度下降法(小批量 SGD)通过迭代减少损失如图所示,机器学习... 阅读全文
posted @ 2018-09-05 19:44 不知道的痛 阅读(297) 评论(0) 推荐(0) 编辑