机器学习知识点:

 https://www.jianshu.com/p/d289755e89bb

顶会列表

http://ibillxia.github.io/blog/2013/01/02/ai-top-conferences/

零碎知识点总结:

1.凸优化

凸优化的容易解决体现在一旦找到了一个局部最优解,那么它一定是最好的那个解(即全局最优的)。

https://blog.csdn.net/qq_23947237/article/details/76045048

2.二者目的都是在使后验概率最大化,判别式是直接对后验概率建模,但是生成模型通过贝叶斯定理这一“桥梁”使问题转化为求联合概率

https://www.zhihu.com/question/20446337

3.

交叉熵适用于二分类

项目新颖点,技术结合 论文(怎么证明)

决策树 

SVM 核函数 种类 如何优化SVM KKT

随机森林 AdaBoost

(Boosting 方法:XGBoost

bagging区别)

GBDT XGBoost ligbm

为何二阶可导 loss分裂节点

加隐层线性不可分

同样维数的有意义吗,升高维度会可分

copy机制:

https://blog.csdn.net/thormas1996/article/details/81081772

counter network

https://blog.csdn.net/App_12062011/article/details/54286906

 

posted on 2020-02-19 12:06  黑暗尽头的超音速炬火  阅读(213)  评论(0)    收藏  举报