摘要: keras 模型复现的要求 阅读全文
posted @ 2019-05-17 21:43 wuliytTaotao 阅读(2478) 评论(0) 推荐(0) 编辑
摘要: 本文简单介绍了线性回归、lasso回归和岭回归,主要解释为什么 lasso 更容易使部分权重变为 0 而 ridge 不行,或者说为什么 lasso 可以进行 feature selection,而 ridge 不行。 阅读全文
posted @ 2019-05-11 20:04 wuliytTaotao 阅读(89001) 评论(8) 推荐(12) 编辑
摘要: 通过矩阵分解补全矩阵用处很广,如推荐系统、缺失值预处理等。本文先简单介绍补全缺失值的一般方法,然后介绍如何用矩阵分解补全缺失值,最后给出含缺失值矩阵分解的python代码。 阅读全文
posted @ 2019-05-06 17:06 wuliytTaotao 阅读(18115) 评论(27) 推荐(0) 编辑
摘要: softmax 和 cross entropy 是机器学习中很常用的函数,softmax 常用来作为 DNN 分类网络最后一层的激活函数,而 cross entropy 也是一种常用的 loss function。熟悉两者的求导有助于理解为什么 tensorflow 会把这两个函数封装成一个 function 中。本文主要介绍 softmax 和 cross entropy 的求导过程。 阅读全文
posted @ 2019-04-29 15:09 wuliytTaotao 阅读(5204) 评论(0) 推荐(2) 编辑
摘要: Mendeley 小技巧,助力论文阅读。 阅读全文
posted @ 2019-04-28 10:41 wuliytTaotao 阅读(5898) 评论(0) 推荐(0) 编辑
摘要: 本文简单介绍什么是主动学习,为什么需要主动学习,主动学习和监督学习、弱监督学习、半监督学习、无监督学习之间是什么关系,主动学习又有哪些种类。 阅读全文
posted @ 2019-04-23 22:24 wuliytTaotao 阅读(3767) 评论(0) 推荐(0) 编辑
摘要: 介绍 active learning 的 query criteria 的种类,以及如何结合这些不同的 criteria。Active learning 是弱监督学习的一个子领域。 阅读全文
posted @ 2019-04-22 19:17 wuliytTaotao 阅读(1273) 评论(0) 推荐(0) 编辑
摘要: 决策树怎么处理回归问题,在 xgboost、lightGBM 大行其道的时候,了解什么是回归树是很有必要的。 阅读全文
posted @ 2019-04-17 22:18 wuliytTaotao 阅读(42450) 评论(0) 推荐(0) 编辑
摘要: Typora + Mathpix Snip,markdown 转 PDF 时目录超链接不再是问题,再也不用害怕 latex 公式输入,解放劳动力。 阅读全文
posted @ 2019-04-08 10:15 wuliytTaotao 阅读(2421) 评论(0) 推荐(0) 编辑
摘要: 延续上一篇博客的内容,本文简单介绍了梯度下降法、最速下降法、牛顿法、共轭方向法、拟牛顿法,这几种方法的收敛速度。 阅读全文
posted @ 2019-03-27 22:36 wuliytTaotao 阅读(15912) 评论(0) 推荐(5) 编辑