随笔分类 -  机器学习

摘要:参考资料: https://blog.csdn.net/u012328159/article/details/122938925 https://blog.csdn.net/u012328159/article/details/120684544?spm=1001.2014.3001.5501 De 阅读全文
posted @ 2024-09-20 18:30 Un-Defined 阅读(60) 评论(0) 推荐(0)
摘要:粗排 精排 粗排和精排的一致性 参考资料:https://www.zhihu.com/question/554471691/answer/3175633203 具体而言,精排模型的训练样本来自于曝光、点击等行为日志。在推荐场景下,能够得到曝光的物品是经过了召回、粗排之后,并且经过了线上的精排模型筛选 阅读全文
posted @ 2024-08-27 09:09 Un-Defined 阅读(668) 评论(0) 推荐(0)
摘要:参考资料: https://www.cnblogs.com/zingp/p/10375691.html 《百面机器学习》 L1、L2正则化 1. 正则化的概念 正则化 (Regularization) 是机器学习中对原始损失函数引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。也就是目 阅读全文
posted @ 2024-08-27 09:04 Un-Defined 阅读(245) 评论(0) 推荐(0)
摘要:参考资料:https://blog.csdn.net/zjuPeco/article/details/77371645 3 特征重要性评估 现实情况下,一个数据集中往往有成百上前个特征,如何在其中选择比结果影响最大的那几个特征,以此来缩减建立模型时的特征数是我们比较关心的问题。这样的方法其实很歹,比 阅读全文
posted @ 2024-08-27 09:04 Un-Defined 阅读(1077) 评论(0) 推荐(0)
摘要:参考: https://blog.csdn.net/Datawhale/article/details/120582526 https://zhuanlan.zhihu.com/p/74198735 特征选择 目录特征选择一般流程三大类方法过滤法1. 单变量2. 多变量2.1 连续型vs连续型(1) 阅读全文
posted @ 2024-08-27 09:04 Un-Defined 阅读(309) 评论(0) 推荐(0)
摘要:决策树 目录决策树熵条件熵信息增益信息增益比ID3C4.5决策树的剪枝CART 算法CART 回归树的生成CART 分类树生成CART剪枝剪枝交叉验证预剪枝 参考资料: 《统计学习方法》 熵 随机变量 \(X\) 的熵定义为 \[H(X)=-\sum_{i=1}^n p_i \log p_i \ta 阅读全文
posted @ 2024-08-27 09:03 Un-Defined 阅读(44) 评论(0) 推荐(0)
摘要:提升方法 提升方法就是从弱学习算法出发,反复学习,得到一系列弱分类器(又称为基本分类器),然后组合这些弱分类器,构成一个强分类器。大多数的提升方法都是改变训练数据的概率分布(训练数据的权值分布),针对不同的训练数据分布调用弱学习算法学习一系列弱分类器。 在每一轮如何改变训练数据的权值或概率分布:提高 阅读全文
posted @ 2024-08-27 09:03 Un-Defined 阅读(31) 评论(0) 推荐(0)
摘要:参考资料:https://paddlepedia.readthedocs.io/en/latest/tutorials/deep_learning/normalization/basic_normalization.html。下文仅为复制无任何改动。 归一化基础知识点 1. 什么是归一化 归一化是一 阅读全文
posted @ 2024-08-27 09:02 Un-Defined 阅读(470) 评论(0) 推荐(0)
摘要:XGBoost 参考资料: https://blog.csdn.net/v_JULY_v/article/details/81410574 https://dl.acm.org/doi/abs/10.1145/2939672.2939785 https://blog.csdn.net/anshuai 阅读全文
posted @ 2024-08-27 09:01 Un-Defined 阅读(130) 评论(0) 推荐(0)
摘要:# IForest ## 所基于的假设 1. 异常是由较少实例组成的少数派 2. 它们拥有与正常实例差别较大的属性 换句话说,异常是少而不同的(few and different),这使得它们比正常的点更容易被孤立。 本文证明了可以有效地构造一个树状结构来隔离每个实例。因为异常点易于被隔离,它们通常 阅读全文
posted @ 2022-12-15 20:49 Un-Defined 阅读(244) 评论(0) 推荐(0)
摘要:参考资料:https://www.keraschina.com/keras_intro/ Keras是Python中以CNTK、Tensorflow或者Theano为计算后台的一个深度学习建模环境。相对于其他深度学习的计算软件,如:Tensorflow、Theano、Caffe等,Keras在实际应 阅读全文
posted @ 2021-12-26 10:11 Un-Defined 阅读(152) 评论(0) 推荐(0)
摘要:公式 参考资料:面向数据驱动的城市轨道交通短时客流预测模型_梁强升.pdf 给定图G=(V,E,A),其中V表示图的结点集合,E表示图的边集合,$A \in R_{n \times n}$是邻接矩阵。定义$D \in R_{n \times n}$是顶点的度矩阵$D_u=\sum_j W_{ij}$ 阅读全文
posted @ 2021-12-26 10:08 Un-Defined 阅读(201) 评论(0) 推荐(0)
摘要:作者:朱小虎XiaohuZhu 链接:https://www.jianshu.com/p/9dc9f41f0b29 来源:简书 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 循环神经网络 人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己 阅读全文
posted @ 2021-12-26 10:07 Un-Defined 阅读(490) 评论(0) 推荐(1)
摘要:参考资料: 自然语言处理(11)— 实战LSTM(keras版本) 深度学习中的batch的大小对学习效果有何影响 理解 LSTM 网络 LSTM整体结构 LSTM 中的重复模块包含四个交互的层 不必担心这里的细节。我们会一步一步地剖析 LSTM 解析图。现在,我们先来熟悉一下图中使用的各种元素的图 阅读全文
posted @ 2021-12-26 10:04 Un-Defined 阅读(1092) 评论(0) 推荐(0)
摘要:Normal equation \[ \theta=(X^TX)^{-1}X^Ty \] Gradient descent for multiple variables Hypothesis \[ h_\theta=\Theta^Tx=\theta_0x_0+\theta_1x_1+\theta_2 阅读全文
posted @ 2021-12-22 14:57 Un-Defined 阅读(234) 评论(0) 推荐(0)
摘要:Lecture18 Application example:Photo OCR Problem description and pipeline The Photo OCR problem 全称:Photo Optical Character Recognition。如何让计算机读出图片中的文字信息 阅读全文
posted @ 2021-12-22 14:56 Un-Defined 阅读(69) 评论(0) 推荐(0)
摘要:Lecture16 Recommender Systems Problem formulation Example:Predicting movie ratings User rates movies using zero to five stars \(n_u\) = no. users \(n_ 阅读全文
posted @ 2021-12-21 15:21 Un-Defined 阅读(80) 评论(0) 推荐(0)
摘要:Lecture 15 Anomaly detection problem motivation Gaussian distribution Algorithm Density estimation Training set : \({x^{(1)},x^{(2)},\dots,x^{(m)}}\) 阅读全文
posted @ 2021-12-20 15:52 Un-Defined 阅读(67) 评论(0) 推荐(0)
摘要:Lecture8 Neural NetWork:Representation Non-linear hypotheses Neural NetWork \(a_i^{(j)}\) = "activation" of unit i in layer j \(\Theta^{(j)}\) = matri 阅读全文
posted @ 2021-12-16 15:15 Un-Defined 阅读(58) 评论(0) 推荐(0)
摘要:Lecture7 Regularization Overfitting : If we have too many features,the learned hypothesis may fit the training set very well,but fail to generalize to 阅读全文
posted @ 2021-12-16 15:14 Un-Defined 阅读(45) 评论(0) 推荐(0)