1、L1范式和L2方式的区别

(1)L1范式是对应参数向量绝对值之和

(2)L1范式具有稀疏性

(3)L1范式可以用来作为特征选择,并且可解释性较强(这里的原理是在实际Loss function中都需要求最小值,根据L1的定义可知L1最小值只有0,故可以通过这种方式来进行特征选择)

(4)L2范式是对应参数向量的平方和,再求平方根

(5)L2范式是为了防止机器学习的过拟合,提升模型的泛化能力

2、优化算法及其优缺点

温馨提示:在回答面试官的问题的时候,往往将问题往大的方面去回答,这样不会陷于小的技术上死磕,最后很容易把自己嗑死了。

(1)随即梯度下降

    优点:可以一定程度上解决局部最优解的问题

  缺点:收敛速度较慢

(2)批量梯度下降

  优点:容易陷入局部最优解

  缺点:收敛速度较快

(3)mini_batch梯度下降

  综合随即梯度下降和批量梯度下降的优缺点,提取的一个中和的方法。

(4)牛顿法

  牛顿法在迭代的时候,需要计算Hessian矩阵,当维度较高的时候,计算Hessian矩阵比较困难。

(5)拟牛顿法

  拟牛顿法是为了改进牛顿法在迭代过程中,计算Hessian矩阵而提取的算法,它采用的方式是通过逼近Hessian的方式来进行求解。

(6)共轭梯度

(7)启发式的优化算法

  启发式的优化算法有遗传算法,粒子群算法等。这类算法的主要思想就是设定一个目标函数,每次迭代根据相应的策略优化种群。直到满足什么样的条件为止。

3、RF与GBDT之间的区别

(1)相同点

  • 都是由多棵树组成
  • 最终的结果都是由多棵树一起决定

(2)不同点

  • 组成随机森林的树可以分类树也可以是回归树,而GBDT只由回归树组成
  • 组成随机森林的树可以并行生成,而GBDT是串行生成
  • 随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和
  • 随机森林对异常值不敏感,而GBDT对异常值比较敏感
  • 随机森林是通过减少模型的方差来提高性能,而GBDT是减少模型的偏差来提高性能的
  • 随机森林不需要进行数据预处理,即特征归一化。而GBDT则需要进行特征归一化

(3)RF:

  优点:

  • 易于理解,易于可视化
  • 不需要太多的数据预处理,即数据归一化
  • 不易过拟合
  • 易于并行化

  缺点:  

  • 不适合小样本数据,只适合大样本数据
  • 大多数情况下,RF的精度低于GBDT
  • 适合决策边界的是矩阵,不适合对角线型

(4)GBDT

  优点:

  • 精度高

  缺点:

  • 参数较多,容易过拟合
  • 不易并行化

4、SVM的模型的推导

5、SVM与树模型之间的区别

(1)SVM

  • SVM是通过核函数将样本映射到高纬空间,再通过线性的SVM方式求解分界面进行分类。
  • 对缺失值比较敏感
  • 可以解决高纬度的问题
  • 可以避免局部极小值的问题
  • 可以解决小样本机器学习的问题  

(2)树模型

  • 可以解决大样本的问题
  • 易于理解和解释
  • 会陷入局部最优解
  • 易过拟合

 6、梯度消失和梯度膨胀

(1)梯度消失:

  • 根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0
  • 可以采用ReLU激活函数有效的解决梯度消失的情况

(2)梯度膨胀

  • 根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大
  • 可以通过激活函数来解决

 7、LR的原理和Loss的推导