摘要: 线性受限于极端样本点,会导致分类不准确 Bayesian Classifiers 原理: 把计算拆解成两部分 找高斯函数(对连续变量,离散变量可以直接用比例求) 换一个角度理解:把已知的样本当作从一个gaussian distribution里sample出来的 所以我们从已知中反推gaussian 阅读全文
posted @ 2025-04-21 09:45 Mondayhan 阅读(18) 评论(0) 推荐(0)
摘要: 当lambda越大时,loss函数越多考虑w的下降而非原loss函数。 需要调试 阅读全文
posted @ 2025-04-21 09:44 Mondayhan 阅读(11) 评论(0) 推荐(0)
摘要: 单调栈 以递增单调栈为例,栈顶元素最大,往下依次递减。(由数组生成) 当错序元素要进栈时,将栈顶元素弹出,此时新栈顶元素为原栈顶元素的左侧第一个最小值,而即将加入的元素为数组右侧第一个最小值。 当数组有重复元素时 前面的相同元素弹出 例题:https://leetcode.cn/problems/l 阅读全文
posted @ 2025-04-21 09:44 Mondayhan 阅读(35) 评论(0) 推荐(0)
摘要: What is RL? Alpha Go 在棋谱中记录的是不是最优答案,我们如何获得呢? supervise learing做不到(CNN可以得到目前棋局局势) RL--人类也不知道答案是什么 Machine Learing ~ Looking for Function ML has three s 阅读全文
posted @ 2025-04-21 09:44 Mondayhan 阅读(30) 评论(0) 推荐(0)
摘要: CNN 对为什么使用卷积的个人理解:使用卷积能减少初始观测范围,利于抓住局部特征,更符合人对事物(尤其图像)的判断能力,所以弹性变小,加上参数共享,所以能增大bias,再慢慢扩大观测范围 Simplification fully connected will lead to overfitting 阅读全文
posted @ 2025-04-21 09:43 Mondayhan 阅读(25) 评论(0) 推荐(0)
摘要: 框架 数据流水线 模型选择 损失函数选择 优化器选择 训练 验证 %matplotlib inline # plot时默认嵌入mat import random # 随机化函数 import torch from d2l import torch as d2l def synthetic_data( 阅读全文
posted @ 2025-04-07 13:14 Mondayhan 阅读(43) 评论(0) 推荐(0)