文章分类 -  上手MindSpore系列

摘要:量化是以较低的推理精度损失将连续取值或者大量可能的离散取值的浮点型模型权重或流经模型的张量数据定点近似为有限个离散值的过程,它是以更少位数的数据类型用于近似表示32位有限范围浮点型数据的过程,而模型的输入输出依然是浮点型。这样的好处是可以减小模型尺寸大小,减少模型内存占用,加快模型推理速度,降低功耗 阅读全文
posted @ 2021-12-25 15:31 MS小白 阅读(106) 评论(0) 推荐(0)
摘要:图像分割功能可以定位图片中的物体,识别物体的边界轮廓大致是: 代码标注 训练模型: if __name__ == '__main__': rank = 0 device_num = 1 # 调用接口进行数据处理 dataset = create_new_dataset(image_dir=confi 阅读全文
posted @ 2021-12-25 15:30 MS小白 阅读(55) 评论(0) 推荐(0)
摘要:本文主要着重于两点: 1 定义多标签数据集; 2 定义多标签损失函数。 一 定义多标签数据集 首先定义数据集: 1 get_multilabel_data中产生两个标签y1和y2; 2 GeneratorDataset的column_names参数设置为[‘data’, ‘label1’, ‘lab 阅读全文
posted @ 2021-12-25 15:30 MS小白 阅读(111) 评论(0) 推荐(0)
摘要:训练集: 测试集: 通过matplotlib可视化部分增强后的训练数据 data = next(train_ds.create_dict_iterator()) images = data["image"] labels = data["label"] print("Tensor of image" 阅读全文
posted @ 2021-12-25 15:29 MS小白 阅读(55) 评论(0) 推荐(0)
摘要:经过长达一个月的复现,终于成功利用MindSpore复现了SwinTransformer在imagenet上的分类精度,中间踩过很多的坑,这个帖子就作为复现SwinTransformer的记录贴,希望能对大家复现2021年这种充满训练Trick的论文有所帮助。 复现着复现着突然Swin就拿了最佳论文 阅读全文
posted @ 2021-12-25 15:28 MS小白 阅读(105) 评论(0) 推荐(0)
摘要:循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network),常用于NLP领域当中来解决序列化数据 阅读全文
posted @ 2021-12-25 15:28 MS小白 阅读(7) 评论(0) 推荐(0)
摘要:本文主要分享个人在开发过程中使用dump调试功能在静态图模式下解决run task error的问题。 1.问题描述 模型在A910设备下训练几个epoch之后突然报错,静态图报错run task error!动态图报错Sync stream error。具体报错信息可参考issueI4EY4G 问 阅读全文
posted @ 2021-12-25 15:25 MS小白 阅读(74) 评论(0) 推荐(0)
摘要:引言 神经网络的参数众多,我们需要选择合适的算法来进行参数的更新和学习,也就是优化器。优化器在神经网络模型训练的过程中有着十分重要的作用。从SGD开始,神经网络模型优化器就一直在迭代和发展之中。如PyTorch就已经开源了包括SGD、Momentum、RMSprop、Adam、AdamW等等丰富的优 阅读全文
posted @ 2021-12-25 15:25 MS小白 阅读(83) 评论(0) 推荐(0)
摘要:在MindSpore21天实战营结业答辩上,我夸下海口要做一个读《深度学习和MndSpore实践》的项目。立的Flag自己要吃下去,今天便推出第一篇。 望着满纸的长长的数学公式、不明觉厉的专业术语,大段大段的代码,我一个小白真是头大如斗。那为什么还要炸着胆子跳到这么深的大坑里呢?主要有两个原因: 1 阅读全文
posted @ 2021-12-25 15:20 MS小白 阅读(52) 评论(0) 推荐(0)
摘要:初读:2020年12月14日至2020年12月17日 啃书进度会在目录中标出来。本次目标是完成第二章2.4节过拟合与欠拟合(P22-P24)。 在机器学习中过拟合(Overfitting)与欠拟合(Underfitting)都是指模型选择不能够很好地拟合数据本身,即模型过于复杂或过于简单。一个过拟合 阅读全文
posted @ 2021-12-25 15:19 MS小白 阅读(12) 评论(0) 推荐(0)
摘要:初读:2021年1月4日 啃书进度会在目录中标出来。本次目标是完成第三章 3.3节泛化能力(P30-P31) 这一节内容非常简短,说明也非常浅显,但实际上点名的方法有好几个,特别是提高泛化能力的具体方法部分,如果每个都展开都会是长篇大论。话说饭主现在能力是不够滴,所以暂且Mar,k混个眼熟,待功力加 阅读全文
posted @ 2021-12-25 15:18 MS小白 阅读(41) 评论(0) 推荐(0)
摘要:初读:2021年1月23日至2021年1月24日 在过去的两个月里,大概以一周一节的龟啃这本MindSpore圣经,终于啃完了前三章。只因基础既差,天资又愚钝,一路下来都是硌得牙齿生疼的感觉。端坐书桌之时也会痛骂自己立什么FLAG。不过值得欣慰的是,相比于两个月之前,我多多少少还是有了些长进。 今天 阅读全文
posted @ 2021-12-25 15:17 MS小白 阅读(20) 评论(0) 推荐(0)
摘要:初读:2021年4月20日至2021年4月23日 今天开始第5章 “卷积神经网络”。卷积神经网络是一种前向神经网络,表示在网络中采用卷积的数学运算。卷积神经网络是一种特殊的神经网络,在至少一个层中使用卷积代替一般矩阵乘法运算。 啃书进度会在目录中标出来。本次目标是完成第5章 5.1节 卷积操作(P5 阅读全文
posted @ 2021-12-25 15:15 MS小白 阅读(37) 评论(0) 推荐(0)
摘要:初读:2021年4月7日至2021年4月15日 啃书进度会在目录中标出来。本次目标是完成第四章 4.6节用MindSpore实现神经网络的代码部分(P52-P54)。 AlexNet论文中代码实现使用了双RTX580 GPU,model_zoo官方模型也是基于双GPU卡实现。我只有一个1050Ti, 阅读全文
posted @ 2021-12-25 15:15 MS小白 阅读(12) 评论(0) 推荐(0)
摘要:最近小Mi发现一个问题!为什么某听歌软件给我推荐的绝大多数都是我的style?为什么某橙色购物软件给我推荐的也有不少就能直接给我种草?小Mi灵机一动,掏出手机开始求助百度大哥,经过一通搜索,才发现这就是如今非常火热的人工智能技术!不仅如此,人工智能技术原来已经真真切切地存在于我们生活中了,比如我们每 阅读全文
posted @ 2021-12-25 15:13 MS小白 阅读(11) 评论(0) 推荐(0)
摘要:一周未见,动力不减!小Mi又带着知识点和大家见面啦!(敲黑板~) 上周小Mi带着大家简单地学习了机器学习的概念,还有其常见的两个大类,监督学习和无监督学习,这次小Mi决定跟大家一起复习下机器学习中常用的线性代数知识。话说矩阵、向量还记得不,逆和转置到底是什么玩意儿?你的大学老师是不是已经哭晕在厕所了 阅读全文
posted @ 2021-12-25 15:00 MS小白 阅读(51) 评论(0) 推荐(0)
摘要:几天不见,动力不减!话说回来,我们要正式开始挑起大梁干大事了,前面一段时间,小Mi已经带大家初步了解了机器学习,复习了机器学习中需要用到的线性代数知识点,这次我们就要开始正式学习监督学习下的单变量线性回归(那么后面是不是还有多变量线性回归?Bingo!答对了!)啦。那就废话不多说,抓紧时间跟小Mi一 阅读全文
posted @ 2021-12-25 14:59 MS小白 阅读(15) 评论(0) 推荐(0)
摘要:初读:2021年5月26日至2021年5月28日 啃书进度会在目录中标出来。本次目标是完成第5章 5.4节 应用:图片分类(P61-P64) 图片分类 对于人来说是很简单的事情,但是对计算机来说,却不容易。在传统图像分类方法中,人们手工设计一些特征符,提取图像上一些局部的外表、形状、纹理等,再利用标 阅读全文
posted @ 2021-12-25 14:59 MS小白 阅读(16) 评论(0) 推荐(0)
摘要:小Mi学习,向上积极!在上一篇机器学习中,小Mi已经带大家认识了单变量线性回归的数学模型,以及对应代价函数的图形解释,小Mi也提及过,我们真正需要的是一种有效的算法,能够自动地找出这些使代价函数J取最小值的参数,来,因此它来了它来了!今天小Mi在此基础上,继续带大家一起学习梯度下降算法。 3梯度下降 阅读全文
posted @ 2021-12-25 14:58 MS小白 阅读(16) 评论(0) 推荐(0)
摘要:几天不见,甚是想念!小Mi系列的活动正在如火如荼地进行中,小Mi看到大伙儿的热情,动力更加十足,这不又迫不及待地更新来了! 在上期的多变量线性回归介绍中,我们学习了多维特征、多变量的梯度下降法以及在实现梯度下降过程中的特征缩放和如何选择学习率这两个技巧,今天小Mi在其基础上,继续带领大家学习多项式回 阅读全文
posted @ 2021-12-25 14:57 MS小白 阅读(17) 评论(0) 推荐(0)