上一页 1 2 3 4 5 6 7 8 9 ··· 72 下一页
摘要: x = normrnd(0,10,[1 400]);noise= normrnd(0,1,[1 400]);y=xy=y+noisew=[x;y][coeff,scores] = pca(w')figure(1)hold onscatter(x(:), y(:), '.')biplot(coeff( 阅读全文
posted @ 2023-09-12 16:23 祥瑞哈哈哈 阅读(16) 评论(0) 推荐(0) 编辑
摘要: 在统计学中,主成分分析PCA是一种简化数据集的技术。它是一个线性变换。这个变换把数据变换到一个新的坐标系统中,使得任何数据投影的第一大方差在第一个坐标(称为第一主成分)上,第二大方差在第二个坐标(第二主成分)上,依次类推。主成分分析经常用于减少数据集的维数,同时保持数据集的对方差贡献最大的特征。这是 阅读全文
posted @ 2023-09-10 22:38 祥瑞哈哈哈 阅读(1) 评论(0) 推荐(0) 编辑
摘要: The whitened data satisfies two conditions: 1) the correlation between different features is the smallest, close to 0;(可用主成分分析完成) 特征之间的相关性趋于0,去除冗余特征(相 阅读全文
posted @ 2023-09-10 11:06 祥瑞哈哈哈 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 为了得到服从i.i.d独立同分布的数据,在把数据喂给机器学习模型之前,“白化(whitening)”是一个重要的数据预处理步骤。白化一般包含两个目的:(得到独立同分布数据) 去除特征之间的相关性 —> 独立;使得所有特征具有相同的均值和方差 —> 同分布。白化最典型的方法就是PCA白化,在此不再赘述 阅读全文
posted @ 2023-09-09 22:58 祥瑞哈哈哈 阅读(18) 评论(0) 推荐(0) 编辑
摘要: ACE对模为1的归一化数据准确率最高。 HD要求归一化方法相同这个我搞不懂。 为什么HD要求信号和像素归一化方法相同呢? ACE对其要求不高变换归一化方法也只是略微变动。 归一化就是对数据进行处理,希望让不同类之间的差异性大,同类之间差异性小。 初步感觉呢归一化就是进行缩放,并未破坏形状。0-1归一 阅读全文
posted @ 2023-09-09 09:05 祥瑞哈哈哈 阅读(29) 评论(0) 推荐(0) 编辑
摘要: 1.特征工程(数据介绍,特征描述,缺失值处理,异常值处理,计算相关性)2.建立模型。3.确定评价指标,画出模型和标签的曲线图。 阅读全文
posted @ 2023-09-08 23:12 祥瑞哈哈哈 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2023-09-08 22:40 祥瑞哈哈哈 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 画完热力图要表示特征和标签的相关性,画出热力图后最好把画出特征跟标签的对应关系。 阅读全文
posted @ 2023-09-08 20:16 祥瑞哈哈哈 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2023-09-08 19:13 祥瑞哈哈哈 阅读(22) 评论(0) 推荐(0) 编辑
摘要: 评分标准 尽可能考虑问题较全面。 比如特征工程,选择好的特征。验证模型时交叉验证,数据集的划分。 1.选出好的特征(需要仔细考虑特征,如果特征考虑少数学建模打分可能低一些)->2.选择合理的模型拟合->3.验证(交叉验证,数据集的划分)。 问题背景和问题重述,模型假设和符号说明这些都不属于评分标准。 阅读全文
posted @ 2023-09-07 10:56 祥瑞哈哈哈 阅读(15) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 72 下一页