随笔分类 -  李宏毅的深度学习笔记

上一页 1 2

机器学习常识
摘要: 阅读全文

posted @ 2020-02-15 13:34 cltt 阅读(103) 评论(0) 推荐(0)

梯度下降
摘要:调节学习率 微分大小意味着离最小值的距离 c点和a点c的微分较大,但是离最低点更近。 那么微分大小意味着离最小值的距离仅在不跨元素时才成立 考虑到二次微分 左边 :走的稳定右边: 步伐小,散乱。但快 feature scaling 特征缩放 w2的变化对y影响大w1的变化对y(loss)影响小,微分 阅读全文

posted @ 2020-02-14 22:15 cltt 阅读(146) 评论(0) 推荐(0)

regression
摘要:这个模型不好,因为隐藏因素:物种 优化这个模型 不同物种的对应的error线也是不一样的,那么error会更小,fit的更好当然还和其他的因素有关:不同物种在进化时的情况不同(如红色线),其次有些值略高或略低于直线(产生进化后CP值时有加rand) 此时可以构造更复杂的模型,把想到的因素都考虑进去, 阅读全文

posted @ 2020-02-11 21:13 cltt 阅读(273) 评论(0) 推荐(0)

上一页 1 2

导航