摘要:
线性回归: 不满秩,计算误差大 岭回归: 岭回归是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数,它是更为符合实际、更可靠的回归方法,对存在离群点的数据的拟合要强于最小二乘法。 不同与线性回归的无偏估计,岭回归的优势在于它的无偏估计,更趋向于将部分系 阅读全文
posted @ 2022-11-17 22:04
dunimaa
阅读(71)
评论(0)
推荐(0)
摘要:
1. plt.legend()函数的作用是给图像加图例。 图例是集中于地图一角或一侧的地图上各种符号和颜色所代表内容与指标的说明,有助于更好的认识地图。 基础绘制 eg: X = np.linspace(-np.pi, np.pi, 256,endpoint=True) C,S = np.cos(X 阅读全文
posted @ 2022-11-17 22:04
dunimaa
阅读(58)
评论(0)
推荐(0)
摘要:
numpy axis=1表示列,axis=0表示行 1. 线性代数库 linalg dot 数组的点积 vdot 向量的点积 (是一个数) inner 数组内积 (类似交叉相乘) matmul 数组的矩阵积 如果任一参数的维数大于2,则将其视为存在于最后两个索引的矩阵的栈,并进行相应广播 如果任一参 阅读全文
posted @ 2022-11-17 22:04
dunimaa
阅读(26)
评论(0)
推荐(0)
摘要:
kdeplot 拟合并绘制单变量或双变量核密度估计图(KDE) distplot 灵活绘制单变量观测值分布图。 jointplot 绘制一个具有双变量和边缘分布的联合数据集 np.random.multivariate_normal def multivariate_normal(mean, cov 阅读全文
posted @ 2022-11-17 22:03
dunimaa
阅读(64)
评论(0)
推荐(0)
摘要:
#1. print(list(filter(lambda x: x%2,range(10)))) #[1, 3, 5, 7, 9]# 非lamda表示def odd(x): return x%2 temp = range(10) show = filter(odd,temp) print(list( 阅读全文
posted @ 2022-11-17 22:03
dunimaa
阅读(48)
评论(0)
推荐(0)
摘要:
1. 数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已 2. 对官方所给的数据进行细致的分析与探索,对于数据的探索与分析是为了能更好地理解数据,包括数据的整体情况、每个字段的含义、数据字段中是否存在奇怪的或错误的情况(例如某些特征字段中出现了大量的空值,身高体重等特征中出现了负数的情 阅读全文
posted @ 2022-11-17 22:03
dunimaa
阅读(35)
评论(0)
推荐(0)
摘要:
建树过程 选取具有最大增益的结点分裂 容易过拟合通过max_depth 限制 阅读全文
posted @ 2022-11-17 22:03
dunimaa
阅读(35)
评论(0)
推荐(0)
摘要:
1. 独热编码(离散变量) eg: ——>0,1 对二分类没有实际作用,适应多分类 OneHotEncoder 2. 连续变量分箱 离散化 等宽,uniform(KBinsDiscretizer)收到异常值影响 等频,quantile 忽略异常值影响 聚类 cluster.KMeans 3. 分组统 阅读全文
posted @ 2022-11-17 22:02
dunimaa
阅读(32)
评论(0)
推荐(0)
摘要:
2.图像分类 self.X_train - X[i, :] 训练集矩阵中每行都减去 测试集的第i行 (临时) np.square(self.X_train - X[i, :]) 返回 每个元素都平方后的矩阵 np.sum(np.square(self.X_train - X[i, :]), axis 阅读全文
posted @ 2022-11-17 22:02
dunimaa
阅读(101)
评论(0)
推荐(0)
摘要:
只有加法和数乘就是线性空间。 定义了距离的线性空间就是线性度量空间。 再更具体一点定义了范数,就是赋范空间。 再多定义一个内积,就是内积空间。 那希尔伯特空间呢,就是再多定义一个完备性,这里的完备性是为了取极限操作而准备的。也就是说有了完备性,取极限才不会跑出自己的空间。 欧氏空间: 对现实空间的规 阅读全文
posted @ 2022-11-17 22:02
dunimaa
阅读(43)
评论(0)
推荐(0)
浙公网安备 33010602011771号