摘要:
一、生成模型 假设有两个类别$C_{1}、C_{2}$,$P(C_{1}|x)=\frac{P(x|C_{1})P(C_{1})}{P(x|C_{1})P(C_{1})+P(x|C_{2})P(C_{2})}$其中$P(C_{1})、P(C_{2})$为先验分布,$P(x|C_{1})、P(x|C_ 阅读全文
posted @ 2020-07-22 18:26
酷酷的群
阅读(88)
评论(0)
推荐(0)
摘要:
一、偏差和方差 欠拟合的loss主要来自偏差 过拟合的loss主要来自方差 应对大的偏差的方法: 增加更多特征作为输入 使用更复杂的模型 应对大的方差的方法: 更多数据 正则化 k折交叉验证 二、梯度下降 Adagrad 二次微分大的点梯度虽然大但是可能会比梯度小的点离极值点更近,因此学习率需要考虑 阅读全文
posted @ 2020-07-22 18:23
酷酷的群
阅读(99)
评论(0)
推荐(0)
摘要:
一、概述 假设有以下数据: $$D=\left {(x_{1},y_{1}),(x_{2},y_{2}),\cdots ,(x_,y_)\right }\ x_\in \mathbb,y_\in \mathbb,i=1,2,\cdots ,N\ X=(x_{1},x_{1},\cdots ,x_)= 阅读全文
posted @ 2020-07-22 18:21
酷酷的群
阅读(165)
评论(0)
推荐(0)
摘要:
一、概述 假设有以下数据: $$X=(x_{1},x_{1},\cdots ,x_)=\begin x_{1}\ x_{2}\ \vdots \ x_ \end{N \times p}\ 其中x\in \mathbb^且x_\overset{\sim }N(\mu ,\Sigma )\ 则参数\th 阅读全文
posted @ 2020-07-22 18:16
酷酷的群
阅读(441)
评论(0)
推荐(0)
摘要:
一、频率派 vs 贝叶斯派 机器学习主要解决从数据中获取其概率分布的问题,通过一些机器学习的算法可以从大量数据中找到一定的规律,从而建立模型来解决实际问题,因此机器学习中主要使用数据来求解其参数: data:\(X\) $X= \left[ \begin x_1 & x_2 & \cdots & x 阅读全文
posted @ 2020-07-22 18:15
酷酷的群
阅读(70)
评论(0)
推荐(0)

浙公网安备 33010602011771号