随笔分类 -  Deep Learning

摘要:       从开始阅读CNN的经典论文(LeNet 5、AlexNet、ZFNet、VGGNet、GoogleNet、ResNet),实验室的师哥就建议看完论文后,用Tensorflow或者Keras复现一下论文的代码,就这样开始了入坑深度学习。复现论文的代 阅读全文
posted @ 2019-07-11 21:23 Le1B_o 阅读(3942) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/xs11222211/article/details/82931120 commentBox <! flowchart 箭头图标 勿删 本系列博客主要介绍使用Pytorch和TF进行分布式训练,本篇重点介绍相关理论,分析为什么要进行分布式训练。后续会 阅读全文
posted @ 2019-06-25 10:48 Le1B_o 阅读(4548) 评论(0) 推荐(2)
摘要:转自:https://www.zhihu.com/people/xutan 最近在进行多GPU分布式训练时,也遇到了large batch与learning rate的理解调试问题,相比baseline的batch size,多机同步并行(之前有答案是介绍同步并行的通信框架NCCL(谭旭:如何理解N 阅读全文
posted @ 2019-06-04 22:26 Le1B_o 阅读(2936) 评论(0) 推荐(0)
摘要:https://www.jianshu.com/p/b1030350aadb 阅读全文
posted @ 2019-04-18 15:55 Le1B_o 阅读(158) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/u014380165/article/details/75142710 <! flowchart 箭头图标 勿删 论文:Xception: Deep Learning with Depthwise Separable Convolutions 论文链 阅读全文
posted @ 2019-04-13 20:09 Le1B_o 阅读(389) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/u014380165/article/details/72938047 <! flowchart 箭头图标 勿删 本篇博文来介绍一个深度学习模型加速的算法:MobileNets,可以在基本不影响准确率的前提下大大减少计算时间和参数数量。 论文:Mob 阅读全文
posted @ 2019-04-13 20:08 Le1B_o 阅读(286) 评论(0) 推荐(0)
摘要:转自:http://www.cnblogs.com/jasonfreak/p/5720137.html 系列 《使用sklearn进行集成学习——理论》 《使用sklearn进行集成学习——实践》 目录 1 Random Forest和Gradient Tree Boosting参数详解2 如何调参 阅读全文
posted @ 2019-03-18 17:04 Le1B_o 阅读(589) 评论(0) 推荐(0)
摘要:转自:http://www.cnblogs.com/jasonfreak/p/5657196.html 系列 《使用sklearn进行集成学习——理论》 《使用sklearn进行集成学习——实践》 目录 1 前言2 集成学习是什么?3 偏差和方差 3.1 模型的偏差和方差是什么? 3.2 baggi 阅读全文
posted @ 2019-03-18 17:01 Le1B_o 阅读(1004) 评论(0) 推荐(0)
摘要:https://www.aiuai.cn/ 阅读全文
posted @ 2019-03-06 20:56 Le1B_o 阅读(142) 评论(0) 推荐(0)
摘要:<! flowchart 箭头图标 勿删 论文:Densely Connected Convolutional Networks 论文链接:https://arxiv.org/pdf/1608.06993.pdf 代码的github链接:https://github.com/liuzhuang13/ 阅读全文
posted @ 2019-03-06 11:31 Le1B_o 阅读(347) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-03-01 14:42 Le1B_o 阅读(160) 评论(0) 推荐(0)
摘要:转自:https://zhuanlan.zhihu.com/p/32702031 inception(也称GoogLeNet)是2014年Christian Szegedy提出的一种全新的深度学习结构,在这之前的AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,但层数的 阅读全文
posted @ 2019-01-24 17:00 Le1B_o 阅读(16953) 评论(0) 推荐(4)
摘要:转自:https://blog.csdn.net/wspba/article/details/56019373 论文地址:Deep Residual Learning for Image Recognition ResNet——MSRA何凯明团队的Residual Networks,在2015年Im 阅读全文
posted @ 2019-01-17 14:53 Le1B_o 阅读(313) 评论(0) 推荐(0)
摘要:转自:https://zhuanlan.zhihu.com/p/31713257 阅读全文
posted @ 2018-12-10 21:50 Le1B_o 阅读(436) 评论(0) 推荐(0)
摘要:A guide to convlution arithmetic for deep learning-Transposed Convolution Transposed convolutions – also called fractionally strided convolutions or d 阅读全文
posted @ 2018-12-10 10:33 Le1B_o 阅读(170) 评论(0) 推荐(0)