摘要: dropout百度翻译有退学者的意思,我觉得还挺恰当的。 它的核心思想就是让一些节点不参与学习,也就是退学。 可以想象这样一个网络,识别人的网络,这个网络可以分为四个部分,左脸友脸,左边身子右边身子,一般的网络会同时识别这四个部分,但是根据我们的经验,一般只需要半张人脸就可以知道TA是谁了。 dro 阅读全文
posted @ 2021-12-26 21:25 zh、dawn 阅读(552) 评论(1) 推荐(0)
摘要: 上采样就是内插等增大图像维度 下采样就是降低图像维度 阅读全文
posted @ 2021-12-25 15:53 zh、dawn 阅读(200) 评论(0) 推荐(0)
摘要: 超参数(hyperparameters)是根据经验设定的值,是人为设定的值。 阅读全文
posted @ 2021-09-23 20:09 zh、dawn 阅读(569) 评论(0) 推荐(0)
摘要: ground-truth表示正确的数据标注,有时也表示数据标注。 阅读全文
posted @ 2021-09-23 20:06 zh、dawn 阅读(305) 评论(0) 推荐(0)
摘要: 启发式就是能快速出结果的算法,出来的结果一般是可用的,但是不能保证全局最优,也不能保证算法的完备性。全局最优容易理解,完备性是说能这个算法能不能找到所有的解,或者干脆判定此问题无解。 就是我也不知道该怎么办最好,先想个差不多的办法试试,你别问我为什么这样,这是启发式方法。 启发式,就是结果不一定对, 阅读全文
posted @ 2021-08-13 10:13 zh、dawn 阅读(308) 评论(0) 推荐(0)
摘要: 数据流中一个新出现的问题是概念漂移的检测。当漂移随时间逐渐增大时,该问题会加剧。在这项工作中,我们定义了一种检测概念漂移的方法,即使是在缓慢渐变的情况下。它基于分类错误之间距离的估计分布。该方法可通过两种方式与任何学习算法结合使用:将其用作批学习算法的包装器或在增量在线算法中实现。实验结果将我们的方 阅读全文
posted @ 2021-08-10 10:29 zh、dawn 阅读(1365) 评论(0) 推荐(0)
摘要: 一直以来对这个有所疑惑,所里师姐和师兄的解释好像和论文中的在线离线有所不同。现在国内外有这么几种理解方式。我就在这边给自己做个小笔记吧。有不对的地方望予以指正,本人必虚心改正。 在线学习和离线学习(online learning and offline learning)理解方式一:在这一次训练中: 阅读全文
posted @ 2021-08-09 11:22 zh、dawn 阅读(816) 评论(0) 推荐(0)
摘要: DDM DDM的思想也很简单,就是control the online error-rate of the algorithm(控制算法的在线错误率)。如果样本数据是稳定分布的,那么随着数据的输入,模型的错误率就会逐渐下降;当概率分布发生变化时,模型的错误率就会上升。所以DDM就是在线控制模型训练过 阅读全文
posted @ 2021-08-09 09:51 zh、dawn 阅读(869) 评论(0) 推荐(0)