随笔分类 -  机器学习知识点

个人笔记
摘要:Q-Learning算法 输入:episodes \(T\),状态集合 \(S\),动作集合 \(A\),步长 \(\alpha\),衰减因子 \(\gamma\),探索率 \(\epsilon\) 输出:所有状态和行为对应的 \(Q\) 值表 随机初始化 \(Q\) 值表,终止状态所对应的 \(Q 阅读全文
posted @ 2022-05-16 00:01 MyAJY 阅读(1233) 评论(0) 推荐(0)
摘要:假设一个5层神经网络:输入层、3层隐藏层、输出层,其中每层只有一个神经元。 对于第$i$层,输出为$z_i=\sigma (y_i)=\sigma (w_ix_i+b_i)$,其中$x_i=z_{i-1}$;设损失函数为$L$,那么在反向传播更新参数时,比如$b_1$,其梯度为:\(\frac{\p 阅读全文
posted @ 2022-01-06 20:17 MyAJY 阅读(219) 评论(0) 推荐(0)
摘要:训练误差:在训练集上的误差。 测试误差:在测试集上的误差,也称为泛化误差。 注:在先前未观测到的输入上表现良好的能力被称为泛化。 欠拟合(underfitting):模型在训练集上不能获得足够低的误差 过拟合(overfitting):训练误差与测试误差之间的差距太大。 通过调整模型的容量(capa 阅读全文
posted @ 2022-01-06 19:32 MyAJY 阅读(115) 评论(0) 推荐(0)
摘要:熵的概念 信息量:衡量一个事件的不确定程度。假设一个事件发生的概率为$p$,则信息量$I=\log \frac{1}{p}=-\log p$ 信息熵:信息量的加权平均,对整个概率分布中的不确定性总量进行量化,即$H(p)=-\sum_{i}p_i\log p_i$ 信息熵又称为香农熵,给出了对依据概 阅读全文
posted @ 2021-12-25 16:36 MyAJY 阅读(149) 评论(0) 推荐(0)