会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
zh、dawn
博客园
首页
新随笔
联系
订阅
管理
2021年12月26日
如何理解dropout?
摘要: dropout百度翻译有退学者的意思,我觉得还挺恰当的。 它的核心思想就是让一些节点不参与学习,也就是退学。 可以想象这样一个网络,识别人的网络,这个网络可以分为四个部分,左脸友脸,左边身子右边身子,一般的网络会同时识别这四个部分,但是根据我们的经验,一般只需要半张人脸就可以知道TA是谁了。 dro
阅读全文
posted @ 2021-12-26 21:25 zh、dawn
阅读(552)
评论(1)
推荐(0)
2021年12月25日
上采样和下采样
摘要: 上采样就是内插等增大图像维度 下采样就是降低图像维度
阅读全文
posted @ 2021-12-25 15:53 zh、dawn
阅读(200)
评论(0)
推荐(0)
2021年9月23日
什么是超参数(hyperparameters)?
摘要: 超参数(hyperparameters)是根据经验设定的值,是人为设定的值。
阅读全文
posted @ 2021-09-23 20:09 zh、dawn
阅读(569)
评论(0)
推荐(0)
什么是ground-truth?
摘要: ground-truth表示正确的数据标注,有时也表示数据标注。
阅读全文
posted @ 2021-09-23 20:06 zh、dawn
阅读(305)
评论(0)
推荐(0)
2021年8月13日
如何理解启发式?
摘要: 启发式就是能快速出结果的算法,出来的结果一般是可用的,但是不能保证全局最优,也不能保证算法的完备性。全局最优容易理解,完备性是说能这个算法能不能找到所有的解,或者干脆判定此问题无解。 就是我也不知道该怎么办最好,先想个差不多的办法试试,你别问我为什么这样,这是启发式方法。 启发式,就是结果不一定对,
阅读全文
posted @ 2021-08-13 10:13 zh、dawn
阅读(308)
评论(0)
推荐(0)
2021年8月10日
Early Drift Detection Method(EDDM)
摘要: 数据流中一个新出现的问题是概念漂移的检测。当漂移随时间逐渐增大时,该问题会加剧。在这项工作中,我们定义了一种检测概念漂移的方法,即使是在缓慢渐变的情况下。它基于分类错误之间距离的估计分布。该方法可通过两种方式与任何学习算法结合使用:将其用作批学习算法的包装器或在增量在线算法中实现。实验结果将我们的方
阅读全文
posted @ 2021-08-10 10:29 zh、dawn
阅读(1365)
评论(0)
推荐(0)
2021年8月9日
在线学习和离线学习
摘要: 一直以来对这个有所疑惑,所里师姐和师兄的解释好像和论文中的在线离线有所不同。现在国内外有这么几种理解方式。我就在这边给自己做个小笔记吧。有不对的地方望予以指正,本人必虚心改正。 在线学习和离线学习(online learning and offline learning)理解方式一:在这一次训练中:
阅读全文
posted @ 2021-08-09 11:22 zh、dawn
阅读(816)
评论(0)
推荐(0)
DDM(Drift Detection Method)
摘要: DDM DDM的思想也很简单,就是control the online error-rate of the algorithm(控制算法的在线错误率)。如果样本数据是稳定分布的,那么随着数据的输入,模型的错误率就会逐渐下降;当概率分布发生变化时,模型的错误率就会上升。所以DDM就是在线控制模型训练过
阅读全文
posted @ 2021-08-09 09:51 zh、dawn
阅读(869)
评论(0)
推荐(0)
公告