文章分类 - 上手MindSpore系列
摘要:小Mi学习,向上积极!前两节小Mi带大家学习了单变量线性回归,还具体分析了自动求解最小代价函数参数的梯度下降法。这不有了单变量,是不是肯定有多变量?!今天小Mi跟大家一起讨论的就是一种更为有效,适合实际情况的形式-多变量线性回归~~ 1 多维特征 既然是多变量线性回归,那么肯定是存在多个变量或者多个
阅读全文
摘要:小Mi学习,向上积极!在前面几周的学习中,小Mi终于带着大家完完整整学完了线性回归,同时小Mi也收到了大家的很多反馈,在后续的学习中,小Mi会一一改进的!今天我们就开启新的章节学习—logistic回归(Logistic Regression) 算法吧(冲鸭)! 1 分类问题 在logistic回归
阅读全文
摘要:小Mi学习,向上积极!逻辑回归的函数表示还有判决边界还记得不,是不是觉得上一节还不得劲儿?!这不,小Mi又来更新啦~ 4. 代价函数 现在我们就要开始讨论如何拟合logistic回归模型的参数,具体来说,我们要定义用来拟合参数的优化目标或者代价函数,以下便是监督学习问题中的logistic回归模型的
阅读全文
摘要:好久不见,甚是想念!今天小Mi继续带大家学习我们的机器学习系列。相信神经网络这个名词大家都不会陌生,神经网络实际上是一个相对比较古老的算法,沉寂了很长一段时间,不过现在随着硬件计算能力的提升,它又成为许多机器学习问题解决的首要方法。 好了,到这相信大家不由地会问了,既然已经有线性回归、逻辑回归算法了
阅读全文
摘要:小Mi学习,向上积极!上周小Mi简单给大家介绍了神经网络的模型表示,今天小Mi将进一步带领大家对神经网络进行进一步的深入理解,话不多说,一起学起来吧~ 5 特征和直观理解 a 从本质上讲,神经网络能够通过学习得出其自身的一系列特征。在普通的逻辑回归中,我们被限制为使用数据中的原始特征,我们虽然可以使
阅读全文
摘要:危险,危险,危险——好久不见,等你在这里见面~在经过前两期关于神经网络的简单介绍后,今天小Mi将进一步介绍神经网络的代价函数、前向传播和反向传播,废话不多说,我们开干吧~ 1 代价函数 首先引入一些便于稍后讨论的新标记方法: 假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神
阅读全文
摘要:在上周小Mi给大家的介绍中,我们谈到了怎样使用反向传播算法计算代价函数的导数。今天,小Mi将继续带大家了解神经网络的实现过程,废话不多说,赶快跟小Mi一起学起来吧~ 4 实现注意:展开参数 首先,有一个细节的实现过程值得关注一下,就是如何把参数从矩阵展开成向量,以便我们在高级最优化步骤中使用。 具体
阅读全文
摘要:到目前为止,小Mi已经给大家介绍了许多不同的学习算法,感觉大伙已经不知不觉地成为一个了解许多先进机器学习技术的专家啦。当然,在了解的同时如何高效有力地运用这些学习算法呢?怎样选择一条最合适、最正确的道路,而不是把时间浪费在毫无意义的尝试上呢?如果你想知道的话,那么跟着小Mi继续机器学习吧~ 1 机器
阅读全文
摘要:今天小Mi带大家学习如何设计一个机器学习系统,也会带大家了解设计复杂的机器学习系统时可能会遇到的一些问题。当然啦,除此之外,小Mi还会提供一些关于巧妙构建复杂机器学习系统的小tips。哦,对了,偷偷告诉你们,可能会帮助大家在构建大型的机器学习系统时,节省大量的时间哦~ 1 初始步骤 废话不多说,上例
阅读全文
摘要:今天我们学习支持向量机!小Mi在办公室的时候经常会听到同事提及什么支持向量机啊,凸优化啊这样的名词,那么支持向量机到底是什么呢?今天让我们过来一探究竟!~~ 1 优化目标 与逻辑回归和神经网络相比,支持向量机,简称SVM,在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式,该算法的强大和受欢
阅读全文
摘要:上周小Mi带大家学习了支持向量机的优化问题以及如何得到大间距分类器,而这背后的数学原理大家是否略知一二呢?今天跟着小Mi后面慢慢推理,帮助大家对支持向量机中的优化问题,以及如何得到大间距分类器,产生更好的直观理解。 3 大边界分类背后的数学 首先,我们需要了解下向量内积这个知识点(敲黑板了哦~)。假
阅读全文
摘要:前两期小Mi带大家学习了支持向量机的优化问题、如何得到大间距分类器以及其背后的数学原理,今天小Mi最后一讲让我们快速果断地结束支持向量机的学习哈。小Mi废话不多说! 4 Kernel(一) 之前小Mi曾经提过,如果遇到无法用直线进行分隔的分类问题时,可以适当采用高级数的多项式模型来解决: 为了获得上
阅读全文
摘要:一周未见,甚是想念!今天小Mi带大家学习聚类算法!也就是主流的监督学习算法我们已经学完了,本期我们开始接触无监督学习算法。废话不多说,跟着小Mi开始学习吧~ 1 无监督学习 什么是无监督学习呢?首先我们先回顾下非常熟悉的监督学习算法:通常典型的监督学习中会有一个带有标签的训练集,根据这个训练集可以拟
阅读全文
摘要:一周未见,,甚是想念!今天小Mi带大家学习如何降维,这是我们遇到的第二种类型的无监督学习问题!废话不多说,我们开始吧~ 1 降维示例 首先,什么是降维呢?这个问题应该最先搞清楚,由于数据集通常有许多特征,我们可以举一个简单的例子来分析: 假设有未知两个的特征:长度,用厘米表示;是用英寸表示同一物体的
阅读全文
摘要:一周未见,甚是想念,今天小Mi带大家学习异常检测(Anomaly detection)!废话不多说,我们开始吧~ 1 定义 异常检测(Anomaly detection)这个算法很有意思:它虽然主要用于非监督学习问题,但从某些角度看,它又和一些监督学习问题很类似。 什么是异常检测: 通常飞机的引擎从
阅读全文
摘要:一周未见,甚是想念,今天小Mi带大家学习异常检测(Anomaly detection)的多元部分!废话不多说,我们开始吧~ 7 多元高斯分布 今天学习的内容是异常检测算法的更进一步,涉及到多元高斯分布,它有一些优势,也有一些劣势,它能捕捉到之前的算法检测不出来的异常,首先我们来看一个例子。 假设有上
阅读全文
摘要:一周未见,甚是想念,今天小Mi带大家学习推荐系统(Recommender Systems)!推荐系统是机器学习中一个很重要的应用,比如某易推荐的歌曲呀,某宝推荐的购物清单呀等等,既然应该这么广泛,那就废话不多说,我们开始吧~ 1 定义 推荐系统是个很有意思的问题,机器学习的学术会议上通常不太会关注推
阅读全文
摘要:一周未见,甚是想念,今天小Mi带大家学习大规模机器学习(Large Scale Machine Learning)!废话不多说,我们开始吧~ 1 大规模数据集的必要性 如果有一个低方差模型,增加数据集的规模可以帮助获得更好的结果。我们应该怎样应对一个有100万条记录的训练集? 以线性回归模型为例,每
阅读全文
摘要:对于初学深度学习的人(就比如我)一定会对张量(Tensor)感到疑惑,因为自己经常见到它但就是不知道它的具体含义。在这篇文章我们就来看一下MindSpore中的Tensor,在此之前我们先来了解一下张量是什么。 从神经网络来看,神经网络中的输入、输出和变换都是用张量表示的(张量是神经网络使用的主要数
阅读全文
摘要:今天我们来看一下MindSpore中算子的使用。第一步肯定是对算子有个大体得了解。算子是什么?它有什么作用。 广义的讲,对于任何函数进行某一项操作都可以认为是一个算子,甚至包括求幂次,开根号都可以认为是一个算子,只是有的算子我们用了一个符号来代替他所要进行的运算罢了(数学上的习惯),所以大家看到算子
阅读全文