摘要: 深度学习研究的一个长期目标是精确表征训练和一般化(泛化)。 然而,神经网络通常复杂的损失情况(loss landscapes)使学习动力学的理论变得难以捉摸。(learning dynamics elusive 难以捉摸) 在这项工作中,我们表明,对于宽神经网络,学习动力学已大大简化,并且在无限的宽 阅读全文
posted @ 2021-01-03 08:25 xinkevinzhang 阅读(157) 评论(0) 推荐(0)
摘要: is.na() 检测缺失值 na.omit() 删除不完整的数据 t() 转置 阅读全文
posted @ 2020-12-29 08:13 xinkevinzhang 阅读(91) 评论(0) 推荐(0)
摘要: 了解boosting和bagging之前,先了解一下什么是集成学习,三个臭皮匠顶个诸葛亮。在分类的表现上就是,多个弱分类器组合变成强分类器。 bagging:从训练集从进行子抽样组成每个基模型所需要的子训练集,对所有基模型预测的结果进行综合产生最终的预测结果,至于为什么叫bootstrap aggr 阅读全文
posted @ 2020-12-29 08:12 xinkevinzhang 阅读(71) 评论(0) 推荐(0)