摘要:本文简单介绍什么是主动学习,为什么需要主动学习,主动学习和监督学习、弱监督学习、半监督学习、无监督学习之间是什么关系,主动学习又有哪些种类。 阅读全文
posted @ 2019-04-23 22:24 wuliytTaotao 阅读 (765) 评论 (0) 编辑
摘要:验证集效果比测试集好怎么办? 阅读全文
posted @ 2019-10-18 19:55 wuliytTaotao 阅读 (15) 评论 (0) 编辑
摘要:主动学习,Core-set 查询策略,2018 年 ICLR 的一篇文章,成为了之后很多文章的 baseline。其中,K-center-greedy 方法实现简单,速度快;Robust k-center 速度慢,但效果更好。 阅读全文
posted @ 2019-09-29 15:43 wuliytTaotao 阅读 (61) 评论 (0) 编辑
摘要:Monte-Carlo Dropout(蒙特卡罗 dropout),简称 MC dropout。一种从贝叶斯理论出发的 Dropout 理解方式,将 Dropout 解释为高斯过程的贝叶斯近似。本文简单介绍 MC dropout,并说明神经网络模型如何表示 uncertainty。 阅读全文
posted @ 2019-09-12 16:34 wuliytTaotao 阅读 (176) 评论 (0) 编辑
摘要:NumPy 不会主动检测并利用 GPU,虽然 NumPy 已经很好用了,但是能利用 GPU 的 NumPy 替代品速度会更快。 阅读全文
posted @ 2019-09-05 21:46 wuliytTaotao 阅读 (147) 评论 (0) 编辑
摘要:查看 CUDA 和 cuDNN 的版本,安装对应版本的深度学习框架。 阅读全文
posted @ 2019-09-03 16:32 wuliytTaotao 阅读 (630) 评论 (0) 编辑
摘要:Linux 和 Windows 系统下,查看当前正在执行的 python 进程,以及 GPU 的利用率。 阅读全文
posted @ 2019-08-15 10:53 wuliytTaotao 阅读 (326) 评论 (0) 编辑
摘要:在 cifar-10 上训练 AlexNet。将 32×32 的图片 resize 到 224×224 之后,数据将无法完全加载到 32G 内存中,会产生 OOM。那么此时的做法有: 1)将 resize 作为模型的一部分,如设置一个 layer 来对一个 batch 的图像进行 resize,这样 32×32 的 cifar-10 仍然可以完全加载到内存中; 2)一种通用的方法,每次只加载一部分数据到内存中,其余数据等到需要的时候再加载到内存。 阅读全文
posted @ 2019-07-15 22:18 wuliytTaotao 阅读 (202) 评论 (0) 编辑
摘要:每个人都有的一本神坑笔记,python3 版,持续更新中。。。 阅读全文
posted @ 2019-07-05 10:34 wuliytTaotao 阅读 (148) 评论 (0) 编辑
摘要:解决 tf.keras 在加载 cifar10 数据时的异常 ssl.SSLError: [SSL: DECRYPTION_FAILED_OR_BAD_RECORD_MAC] 阅读全文
posted @ 2019-07-04 23:54 wuliytTaotao 阅读 (197) 评论 (0) 编辑
摘要:本文简单介绍了 Adam 优化器,并讨论一个问题:Adam 这个自适应学习率的优化器还有必要使用学习率衰减(learning rate decay)吗? 阅读全文
posted @ 2019-06-28 17:06 wuliytTaotao 阅读 (3088) 评论 (0) 编辑