文章分类 - 上手MindSpore系列
摘要:简介 目前的神经网络模型层出不穷,其中在图像识别的领域不仅非常高效快速,而且准确率也非常高。但我们在提高准确率的道路上是永不止步的,比较矛盾的是在提高精确率的同时也会带来消耗,需要更高的计算资源,这对模型的应用是很大的门槛。本次分享小Mi给大家介绍一个神经网络模型Mobilenet_V2。该模型骨骼
阅读全文
摘要: 摘要: 承接上一篇LeNet网络模型的图像分类实践,本次我们再来认识一个新的网络模型:ResNet-50。不同网络模型之间的主要区别是神经网络层的深度和层与层之间的连接方式,正文内容我们就分析下使用ResNet-50进行图像分类有什么神奇之处,以下操作使用MindSpore框架实现。 1.网络:
阅读全文
摘要:摘要 本篇的主要内容是解析一下使用MindSpore深度学习框架训练LeNet网络对Mnist数据集进行分类。首先我给大家展示出本篇内容的一个示意图,帮助大家更直观的看到训练过程的一个重要步骤,如图所示,其中1、2、3…表示训练过程中的次序,下面我们也将从这些次序进行解析。 训练导图 数据集(Mni
阅读全文
摘要:为什么是数据处理系列呢 数据的重要性 在AI上的应用:AI的应用领域有机器视觉、自然语言处理和广告推荐等,可以说都是搭建在定向的数据集上的。首先数据集从类型上分为:大致可以分为图像、音频和文本数据集。 数据处理的用处:都说深度学习的门槛很高,我觉得有一点就是对算力的要求很高,常见的实验数据集本身就比
阅读全文
摘要:简述: 决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表
阅读全文
摘要:摘要 随机森林是集成算法最前沿的代表之一。随机森林是Bagging的升级,它和Bagging的主要区别在于引入了随机特征选择。即:在每棵决策树选择分割点时,随机森林会先随机选择一个特征子集,然后在这个子集上进行传统的分割点选择。 随机森林 随机森林的构造过程:假如有N个样本,则有放回的随机选择N个样
阅读全文
摘要:简介: 上次我们介绍过Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。 本次将通过一个简单示例,手撕拆解Adaboost的计算过程。本次是手撕模型系列第一篇,各位看官若有想了解的算法模型,欢迎
阅读全文
摘要:简介 AdaBoost算法是一种集成学习(ensemble learning)方法。集成学习是机器学习中的一类方法,它对多个机器学习模型进行组合形成一个精度更高的模型,参与组合的模型称为基学习器(weak learner)或弱分类器。在预测时使用这些弱学习器模型联合起来进行预测。训练时需要用训练样本
阅读全文
摘要:简介: 我们经常用过拟合、欠拟合来定性地描述模型是否很好地解决了特定的问 题。从定量的角度来说,可以用模型的偏差(Bias)与方差(Variance)来描述模型的性能。集成学习往往能够“神奇”地提升弱分类器的性能。 一、 偏差和方差怎么来的 如果我们用训练数据集去训练一个模型,通常的做法是需要定义一
阅读全文
摘要:简述: 虽然集成学习的具体要使用的算法和策略有所相同,但在实现过程中都共享同样的操作步骤。本次分享结合具体的集成学习算法,分析下集成学习的具体过程。 一. 基本步骤 集成学习大致可以概括为以下3个大的步骤。 (1)找到误差互相独立的基分类器。 (2)训练基分类器。 (3)合并基分类器的结果。 合并基
阅读全文
摘要:一. 简述 面对一个机器学习问题,通常有两种策略。一种是开发人员尝试各种模型,选择其中表现最好的模型做重点调参优化。这种策略类似于奥运会比赛,通过强强竞争来选拔最优的运动员,并逐步提高成绩。另一种重要的策略是集各家之长,如同贤明的君主广泛地听取众多谋臣的建议,然后综合考虑,得到最终决策。后一种策略的
阅读全文
摘要:一. 简述 在和环境不断交互的过程中,智能体在不同的状态下不停地探索,获取不同的动作的反馈。探索(Exploration)能够帮助智能体通过不断试验获得反馈,利用(Exploitation)是指利用已有的反馈信息选择最好的动作。因此如何平衡探索和利用是智能体在交互中不断学习的重要问题。 二. 什么是
阅读全文
摘要:1. 简介 时间差分法主要基于时间序列的差分数据进行学习,其分为固定策略和非固定策略两种。固定策略时间差分法以Sarsa算法为代表;非固定策略以Q-Learning算法为代表。 2. Sarsa算法 Sarsa(state-action-reward-state-action)算法的目的是估计动作值
阅读全文
摘要:1. 简介 上一节主要介绍了强化学习的基本概念,主要是通过设定场景带入强化学习的策略、奖励、状态、价值进行介绍。有了基本的元素之后,就借助马尔可夫决策过程将强化学习的任务抽象出来,最后使用贝尔曼方程进行表述。本次内容主要是介绍强化学习的求解方法。也等同于优化贝尔曼方程。 2. 贝尔曼方程 首先我们回
阅读全文
摘要:1. 简介 强化学习关注身处某个环境中的智能体通过采取行动获得最大化的累积收益。和传统的监督学习不同,在强化学习中,并不直接给智能体的输出打分。相反,智能体只能得到一个间接的反馈,而无法获得一个正确的输入/输出对,因此需要在不断的尝试中优化自己的策略以获得更高的收益。从广义上说,大部分涉及动态系统的
阅读全文
摘要:一. 概述 多层网络的学习拟合能力比单层网络要强大很多。所以想要训练多层网络,前面的简单感知机学习方法显然有些不足,需要拟合能力更加强大的算法。反向传播算法( Back Propagation,BP)是其中的经典方法,它可以说是现今最成功的神经网络算法,现实当中使用到神经网络时,大多是使用BP算法训
阅读全文
摘要:一. 概述 通过上篇对神经网络组成部分的分析,本篇的内容是基于上篇内容的继承(上篇内容详见:神经网络的组成)。如果从结构上讲,神经网络就是由很多个单一的神经单元组合到一起,这里面的一个神经单元的输出就可以是另一个神经单元的输入,每一个神经元有着各自的功能,通过将这些功能各异的神经元有序组合,就可以构
阅读全文
摘要:一. 摘要 这里将继续介绍NLP算法体系:基于人工神经网络(Artinci Neural Network)的深度学习方法。人工神经网络思想来源于仿生学对大脑机制的探索,即希望通过对大脑的模拟达到智能的目的。神经网络理论与技术就是在这样的目标下摸索发展出来的。神经网络是由具有自适应的单元组成的,广泛的
阅读全文
摘要:一. 摘要 门控制循环单元是为了解决循环神经网络短期记忆问题提出的解决方案,它们引入称作“门”的内部机制,可以调节信息流。在上次的内容分享中,我们简单解析了名称为GRU的门控制循环单元。因为“门”的机制,我们还可以在此基础上创新出性能更优的循环单元。本次分享的内容也是基于GRU循环单元的强化版:长短
阅读全文
摘要:一. 摘要 在上次分享中,我们了解到了基础的循环神经网络(RNN),对于基础的循环神经网络模型,它可以比较好的通过t时刻关联到t-1时刻和t+1时刻,甚至更多。但它对任意时刻的输入都是赋予相同权重计算。这样区分不出重点因素。并且循环神经网络的梯度很容易衰减和爆炸,虽然可以采用裁剪梯度的方法缓解,但无
阅读全文
浙公网安备 33010602011771号