摘要:
Centos配置 1、配置本地Yum源 1. 修改/ect/yum.repos.d/CenOS Base.repo配置文件 其他的enabled=0 2. 挂载Everything.iso 3. 测试是否成功 2、配置IP 1. 修改/etc/hostname 2. 修改网络配置文件/etc/sys 阅读全文
posted @ 2020-05-13 16:05
hi_heisen
阅读(108)
评论(0)
推荐(0)
摘要:
局域网安装UBUNTU步骤 1. 修改terminal的字体大小为16,颜色为Tango dark,为输入命令作准备。 2. 修改apt源,为安装软件包及依赖作准备。 sudo apt update 3. 安装vim方便修改文件 4. 安装高版本的gcc&g++和低版本的gcc&g++,为安装NVI 阅读全文
posted @ 2020-05-13 15:59
hi_heisen
阅读(430)
评论(0)
推荐(0)
摘要:
正则表达式 element使用正则表达式验证 使用方法验证 使用validator定义方法 使用vue的数据定义验证 使用pattern定义规则 阅读全文
posted @ 2020-05-13 15:57
hi_heisen
阅读(23003)
评论(0)
推荐(0)
摘要:
最大熵模型 熵的概念 熵度量了事物的不确定性,越不确定的事物,它的熵越大,表示如下: H(X)=n∑i=1pilogpi n代表X的n种不同离散取值,而pi代表了X取值为i的概率。 多个变量联合熵表示为 $$ H(X,Y)= \sum_{i=1}^np(x_ 阅读全文
posted @ 2020-05-13 15:55
hi_heisen
阅读(265)
评论(0)
推荐(0)
摘要:
PCA原理 PCA思想 PCA是一种重要的降维方法之一,就是找出数据里最主要的方面,用主要方面代替原数据,并希望损失尽可能小。 PCA推导:基于最小投影距离 假设m个n维数据(x(1),x(2),...,x(m))都已经进行了中心化,即$\sum\limits_{i=1}^mx 阅读全文
posted @ 2020-05-13 15:53
hi_heisen
阅读(159)
评论(0)
推荐(0)
摘要:
逻辑回归、正则化、感知机 正则化 为避免过拟合,增强模型的泛化能力,可以使用正则化的方法。 1. Lasso回归 L1正则化 $$ J(\theta)=\frac{1}{2n}(\mathtt X\theta Y)^T(\mathtt X\theta Y)+\alpha\lVert \theta\r 阅读全文
posted @ 2020-05-13 15:51
hi_heisen
阅读(380)
评论(0)
推荐(0)
摘要:
LDA原理 LDA思想 这里的LDA是指Linear Discriminant Analysis,简称LDA,全称线性判别分析。要与自然语言处理领域的LDA(Latent Dirichlet Allocation)隐含狄利克雷分布区分开来。 LDA是一种监督学习降维技术,它的数据集的每个样本是有类别 阅读全文
posted @ 2020-05-13 15:50
hi_heisen
阅读(544)
评论(0)
推荐(0)
摘要:
梯度提升树GBDT GBDT是Boosting家庭中,除AdaBoost外另一个重要的算法。算法思想同样是让本轮迭代找到的决策树的损失比上轮更小。 GBDT负梯度拟合 用损失函数负梯度来拟合本轮损失近似值,进而拟合一个CART回归树。第t轮的第i个样本的损失函数的负梯度表示为: $$ r_{ti}= 阅读全文
posted @ 2020-05-13 15:49
hi_heisen
阅读(195)
评论(0)
推荐(0)
摘要:
奇异值分解SVD原理 特征值和特征向量 特征值和特征向量表示: Ax=λx 其中A是一个n×n的实对称矩阵,x是一个n维向量,则我们说λ是一个特征值,而x是矩阵A的特征值λ对应的特征向量。有了特征值和特征向量,我们就可以将矩阵 阅读全文
posted @ 2020-05-13 15:47
hi_heisen
阅读(187)
评论(0)
推荐(0)
摘要:
朴素贝叶斯 朴素贝叶斯原理 朴素贝叶斯:条件分布+条件独立+全概率 算法原理 条件分布 P(Y|X)=P(X,Y)P(X) 贝叶斯可以概括为:先验概率+数据=后验概率。 如果X和Y相互独立,那么 P(X,Y)=P(X)P(Y) 条件概率表示为: $$ P(Y 阅读全文
posted @ 2020-05-13 15:46
hi_heisen
阅读(249)
评论(0)
推荐(0)