会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
CathyChen111
博客园
首页
新随笔
联系
订阅
管理
1
2
下一页
2020年4月9日
Simulink 基础
摘要: 参考链接:https://ww2.mathworks.cn/help/simulink/gs/system-definition-and-layout.html 步骤:【由外到内,由简单到复杂,由直观为抽象】 系统定义和布局 明确您的目的和需求 确定电机/相应的仪器 >根据目标效果进行建模 确定系统
阅读全文
posted @ 2020-04-09 22:52 CathyChen111
阅读(165)
评论(0)
推荐(0)
2020年3月1日
论文模板
摘要: 运行美赛模板,发现报错 报错显示: 1. undefined control sequence 2.Missing a number, treated as zero 上网找了好久的资料,在电脑上忙活了好久,下载了CTex,还跟着别人的经验,手册做了好久,均以失败告终 然后再Latex自带的模板中一
阅读全文
posted @ 2020-03-01 21:43 CathyChen111
阅读(249)
评论(0)
推荐(0)
2020年2月29日
层次分析法
摘要: 适用于难完全定量分析的问题,是一种成熟的多准则决策方法 步骤: 建立递阶层次结构模型 目标层(只有一个元素) 准则层(中间环节)可以有多层,一层最多9个——考虑因素 措施层/方案层——选择方案,有多种选择 构造出各层次中的所有判断矩阵 采取对因子进行两两比较建立成对比较矩阵的方法:每次取2个因子xi
阅读全文
posted @ 2020-02-29 15:37 CathyChen111
阅读(1019)
评论(0)
推荐(0)
2020年2月25日
Task10 文本预处理
摘要: 文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤: 读入文本 分词 建立字典,将每个词映射到一个唯一的索引(index) 将文本从词的序列转换为索引的序列,方便输入模型 函数: Python strip() 方法用于移除字符串头尾指定
阅读全文
posted @ 2020-02-25 20:15 CathyChen111
阅读(117)
评论(0)
推荐(0)
Task09 批量归一化
摘要: 深度学习的问题:深度CNN网络达到一定深度后再一味地增加层数并不能带来进一步地分类性能提高,反而会招致网络收敛变得更慢,准确率也变得更差。 在残差块中,输⼊可通过跨层的数据线路更快 地向前传播。 较普通网络而言,残差网络在网络较深时能更好的收敛。
阅读全文
posted @ 2020-02-25 20:13 CathyChen111
阅读(145)
评论(0)
推荐(0)
Task06 Basic of CNN
摘要: 卷积层 最常见的二维卷积层,常用于处理图像数据 用corr2d函数实现二维互相关运算,它接受输入数组X与核数组K,并输出数组Y shape[0], 图像的垂直尺寸(高度);shape[1]:图像的水平尺寸(宽度)shape[2]:图像的通道数 https://blog.csdn.net/xiasli
阅读全文
posted @ 2020-02-25 20:03 CathyChen111
阅读(101)
评论(0)
推荐(0)
2020年2月18日
Task05 梯度消失和梯度爆炸
摘要: 当层数较多时,梯度的计算也容易出现消失或爆炸 随机初始化模型参数 在神经网络中,通常需要随机初始化模型参数。下面我们来解释这样做的原因。 回顾多层感知机一节描述的多层感知机。为了方便解释,假设输出层只保留一个输出单元o1(删去o2和o3以及指向它们的箭头),且隐藏层使用相同的激活函数。如果将每个隐藏
阅读全文
posted @ 2020-02-18 16:39 CathyChen111
阅读(158)
评论(0)
推荐(0)
Task 04 过拟合,欠拟合及其解决方案
摘要: 训练误差与泛化误差 训练误差:训练数据集上表现出的误差 泛化误差:模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 机器学习模型应关注降低泛化误差。 模型的选择 测试集只能在所有超参数和模型参数选定后使用一次。即选了模型之后,才能用测试集来测试,不能用测试集来选模
阅读全文
posted @ 2020-02-18 16:35 CathyChen111
阅读(216)
评论(0)
推荐(0)
机器学习 Task 03 多层感知机
摘要: 函数运用: backward() 如果需要计算导数,可以在Tensor上调.backward(); backward(gradient=None, retain_variables=False)[sound] 如果Tensor是标量(即它包含一个元素的数据),则不需要为backward()指定任何参
阅读全文
posted @ 2020-02-18 16:28 CathyChen111
阅读(142)
评论(0)
推荐(0)
2020年2月14日
机器学习 task2 softmax与分类模型
摘要: 理论部分: softmax的基本概念 分类问题一个简单的图像分类问题,输入图像的高和宽均为2像素,色彩为灰度。图像中的4像素分别记为x1,x2,x3,x4。假设真实标签为狗、猫或者鸡,这些标签对应的离散值为y1,y2,y3。我们通常使用离散的数值来表示类别,例如y1=1,y2=2,y3=3。 权重矢
阅读全文
posted @ 2020-02-14 19:20 CathyChen111
阅读(222)
评论(0)
推荐(0)
1
2
下一页
公告