摘要: 讲得不错 from: https://cloud.tencent.com/developer/article/1500914 XGBoost的威名想必大家都有所耳闻,它不仅是数据科学竞赛神器,在工业界中也被广泛地使用。本文给大家分享珍藏了多年的XGBoost高频面试题,希望能够加深大家对XGBoos 阅读全文
posted @ 2022-11-22 21:09 凌波微步_Arborday 阅读(71) 评论(0) 推荐(0) 编辑
摘要: 讲得实在行云流水啊,服 from: https://cloud.tencent.com/developer/article/1517020 XGBoost超详细推导,终于讲明白了! 发布于2019-09-30 17:59:26阅读 2.3K0 - XGB中树结点分裂的依据是什么? - 如何计算树节点 阅读全文
posted @ 2022-11-22 20:37 凌波微步_Arborday 阅读(225) 评论(0) 推荐(0) 编辑
摘要: 简单说就是xgboost用二阶导数取代了GBDT中的步长,所以迭代的更精确 from:https://zhuanlan.zhihu.com/p/50176849 GBDT和XGBoost两个模型后者在Kaggle中使用的相当频繁。 其实这两者在算法中有着异曲同工之妙。 首先要从泰勒公式讲起: 泰勒公 阅读全文
posted @ 2022-11-20 11:28 凌波微步_Arborday 阅读(272) 评论(0) 推荐(0) 编辑
摘要: from: https://blog.csdn.net/weixin_40633696/article/details/121810403 文章目录1. Self-Attention 的核心是什么?2. 不考虑多头的原因,self-attention中词向量不乘QKV参数矩阵(W Q , W K , 阅读全文
posted @ 2022-11-14 17:25 凌波微步_Arborday 阅读(620) 评论(0) 推荐(0) 编辑
摘要: 原文链接:https://jishuin.proginn.com/p/763bfbd565fc 本文在原文基础框架上有增加,附上更详细或者正确的解答。 1.Transformer为何使用多头注意力机制?(为什么不使用一个头)答:多头可以使参数矩阵形成多个子空间,矩阵整体的size不变,只是改变了每个 阅读全文
posted @ 2022-11-06 11:41 凌波微步_Arborday 阅读(205) 评论(0) 推荐(0) 编辑
摘要: from: https://zhuanlan.zhihu.com/p/33173246 深度神经网络模型训练之难众所周知,其中一个重要的现象就是 Internal Covariate Shift. Batch Norm 大法自 2015 年由Google 提出之后,就成为深度学习必备之神器。自 BN 阅读全文
posted @ 2022-11-03 08:27 凌波微步_Arborday 阅读(320) 评论(0) 推荐(0) 编辑
摘要: from: https://zhuanlan.zhihu.com/p/463052305 参考: attention-is-all-you-need-pytorch NLP 中的Mask全解 Transformer 权重共享 Transformer代码详解-pytorch版 Transformer模 阅读全文
posted @ 2022-10-31 21:43 凌波微步_Arborday 阅读(542) 评论(0) 推荐(0) 编辑
摘要: 讲的比较透彻,关于凸函数的定义、性质、在优化中的优势 from: https://zhuanlan.zhihu.com/p/56876303 凸函数定义 一个函数 f:Rn→R 是一个凸函数,当且仅当以上两个条件成立: 函数 f 的定义域 dom f 是一个凸集; f(θx+(1−θ)y)≤θf(x 阅读全文
posted @ 2022-09-22 07:50 凌波微步_Arborday 阅读(967) 评论(0) 推荐(0) 编辑
摘要: from:https://zhuanlan.zhihu.com/p/78311644 EM 算法,全称 Expectation Maximization Algorithm。期望最大算法是一种迭代算法,用于含有隐变量(Hidden Variable)的概率参数模型的最大似然估计或极大后验概率估计。 阅读全文
posted @ 2022-09-18 11:06 凌波微步_Arborday 阅读(362) 评论(0) 推荐(0) 编辑
摘要: from: cnblogs.com/earendil/p/8872001.html Baggging 和Boosting都是模型融合的方法,可以将弱分类器融合之后形成一个强分类器,而且融合之后的效果会比最好的弱分类器更好。 Bagging: 先介绍Bagging方法: Bagging即套袋法,其算法 阅读全文
posted @ 2022-09-16 08:29 凌波微步_Arborday 阅读(36) 评论(0) 推荐(0) 编辑