随笔分类 -  机器算法学习

摘要:看这句,不懂save的详细使用 np.save('..//train_test_data_1D//' + str(seq_length) + str(lead_time) + str(point) + str(num) + 'label_test.npy',label_test) ctrl+左击进入 阅读全文
posted @ 2023-01-10 14:47 辛宣 阅读(144) 评论(0) 推荐(0)
摘要:flatten是numpy.ndarray.flatten的一个函数,即返回一个折叠成一维的数组。但是该函数只能适用于numpy对象,即array或者mat,普通的list列表是不行的。 a是个矩阵或者数组,a.flatten()就是把a降到一维,默认是按横的方向降 from numpy impor 阅读全文
posted @ 2023-01-10 12:52 辛宣 阅读(152) 评论(0) 推荐(0)
摘要:概念 归一化就是把所有数据都转化成[0,1]或者[-1,1]之间的数,其目的是为了取消各维数据之间的数量级差别,避免因为输入输出数据数量级差别大而造成网络预测误差过大。 好处 归一化有如下好处,即 1)归一化后加快了梯度下降求最优解的速度,也即加快训练网络的收敛性; 2)归一化有可能提高精度 归一化 阅读全文
posted @ 2023-01-08 22:25 辛宣 阅读(672) 评论(0) 推荐(0)
摘要:张量(tensor)是多维数组,目的是把向量、矩阵推向更高的维度。 参考: https://www.zhihu.com/question/20695804/answer/447498656 阅读全文
posted @ 2023-01-07 14:58 辛宣 阅读(146) 评论(0) 推荐(0)
摘要:LeNet类继承了nn.Module,并且在__init__方法中实现了各个子模块的构建。 LetNet类里面的forward方法——通过调用forward方法来实现子模块的拼接操作。 在构造网络结构是需要继承 nn.Module 类,并重新构造 __init__和forward两个方法,但需要注意 阅读全文
posted @ 2023-01-07 14:53 辛宣 阅读(183) 评论(0) 推荐(0)
摘要:子曰:找对象先了解品行,学对象先了解属性。 https://xufive.blog.csdn.net/article/details/87396460 今天看项目的时候,numpy迷糊了,明天继续看看并总结 阅读全文
posted @ 2023-01-06 21:49 辛宣 阅读(22) 评论(0) 推荐(0)
摘要:./ 代表的是当前目录 ../代表的是上一级目录,也就是父级目录 ../../表示源文件所在目录的上上级目录,以此类推 / 表示根目录 阅读全文
posted @ 2023-01-04 14:05 辛宣 阅读(34) 评论(0) 推荐(0)
摘要:permute()函数: permute()函数其实是对矩阵的块行列进行交换 LSTM模型后增加DENSE(全连接)层的目的是什么? LSTM主要用于处理变长序列,就是说输入的长度是可变的。而全连接层的输入长度是固定的。 lstm和cnn都是部分连接共享参数,全连接是全部连接。 列表和numpy数组 阅读全文
posted @ 2023-01-04 12:03 辛宣 阅读(35) 评论(0) 推荐(0)
摘要:nn.Linear的理解 nn.Linear是pytorch中线性变换的一个库 在实际应用中,nn.Linear往往用来初始化矩阵,供神经网络使用。 view()方法 我们经常会用到x.view()方法来进行数据维度的变化 传入数字-1,自动对维度进行变换 我们使用-1数字自动计算出了其余的一个维度 阅读全文
posted @ 2023-01-01 17:39 辛宣 阅读(538) 评论(0) 推荐(0)
摘要:支持向量机(Support Vector Machine,SVM)主要是将特征空间通过非线性变换的方式映射到一个高纬的特征空间,并在这个高纬空间中找出最优线性分界超平面的一种方法。 简单来说,SVM的主要原理就是找出间隔最大的超平面作为分类边界。 关于超平面在百度百科中有非常明确的定义,我这里通俗解 阅读全文
posted @ 2022-12-08 16:24 辛宣 阅读(105) 评论(0) 推荐(0)
摘要:单层感知机 Delta学习规则 BP(Back Propagation)神经网络 阅读全文
posted @ 2022-10-30 16:22 辛宣 阅读(30) 评论(0) 推荐(0)
摘要:非线性逻辑回归的代码: 关于 PolynomialFeatures PolynomialFeatures 多项式特征,设置不同的degree,可以变的更拟合,如图 scale = False 数据是否需要标准化 preprocessing.scale(X)直接标准化数据X np.r—和np.c # 阅读全文
posted @ 2022-10-19 12:06 辛宣 阅读(58) 评论(0) 推荐(0)
摘要:jupyter里查看函数用法: 点到函数,再shift+tab 运行一下函数 shift+enter 逻辑回归的梯度下降的代码 numpy.concatenate()函数 np.concatenate((a,b),axis=1) #axis=1表示对应行的数组进行拼接,横着加 np.concaten 阅读全文
posted @ 2022-10-18 16:50 辛宣 阅读(44) 评论(0) 推荐(0)
摘要:一元线性回归 sklearn一元线性回归代码: https://github.com/xinxuann/MachineLearningNote/blob/main/sklearn-%E4%B8%80%E5%85%83%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92.ipynb 阅读全文
posted @ 2022-10-17 16:58 辛宣 阅读(100) 评论(0) 推荐(0)
摘要:LASSO 正则化(惩罚函数)是一阶的函数 还能看到哪些是不重要的特征 LASSO代码: 直接用sklearn的 https://github.com/xinxuann/MachineLearningNote/blob/main/sklearn-LASSO.ipynb 弹性网(Elastic Net 阅读全文
posted @ 2022-10-17 16:48 辛宣 阅读(257) 评论(0) 推荐(0)
摘要:岭回归 推导过程 总结: sklearn代码: https://github.com/xinxuann/MachineLearningNote/blob/main/sklearn-%E5%B2%AD%E5%9B%9E%E5%BD%92.ipynb 标准方程法-岭回归代码: https://githu 阅读全文
posted @ 2022-10-17 16:43 辛宣 阅读(198) 评论(0) 推荐(0)
摘要:过拟合 从而有了正则化 正则化 阅读全文
posted @ 2022-10-17 16:35 辛宣 阅读(28) 评论(0) 推荐(0)
摘要:标准方程法 重点在于推导的过程,会推导一次就行了 代码是直接套用推导出来的公式 代码: https://github.com/xinxuann/MachineLearningNote/blob/main/%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92%E6%A0%87%E5 阅读全文
posted @ 2022-10-17 16:32 辛宣 阅读(27) 评论(0) 推荐(0)
摘要:多元线性回归 直接用sklearn库里的调用 代码: https://github.com/xinxuann/MachineLearningNote/blob/main/sklearn-%E5%A4%9A%E5%85%83%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92.ip 阅读全文
posted @ 2022-10-17 16:25 辛宣 阅读(94) 评论(0) 推荐(0)
摘要:代价函数(Cost Function) 梯度下降 思想: 过程图: 所以第一步往往决定就是局限最小值 注意的是要同时更新 不断的将代价函数最小化,从而去最大拟合数据 阅读全文
posted @ 2022-10-17 16:10 辛宣 阅读(42) 评论(0) 推荐(0)