随笔分类 - 统计/机器/深度学习
摘要:让网络自主决定共享或独立的结构。
阅读全文
摘要:PyTorch官方论文。
阅读全文
摘要:让RNN的每一个时间步具有不同的运算量。
阅读全文
摘要:让一群小模型共同优化,达到比单独学习和蒸馏学习更好的效果。这是一种优化策略上的健壮性提升,类似于dropout在网络结构上的健壮性提升。
阅读全文
摘要:实现non-local的神经网络。与self-attention异曲同工。
阅读全文
摘要:堆叠残差注意力模块。
阅读全文
摘要:像LSTM一样,给深度网络加跳过门。
阅读全文
摘要:自主跳过ResNet的某一些block。
阅读全文
摘要:MobileNet:调节通道数和通道尺寸,大量集成深度可分离卷积。
阅读全文
摘要:ResNet:学习残差,让深度网络逼近恒等变换。
阅读全文
摘要:通道注意力建模。轻量级,效果明显。2017年ILSVRC分类冠军。
阅读全文
摘要:Xception结构:进一步解耦通道互相关和空域互相关操作。
阅读全文
摘要:深度学习:反馈学习比单纯的前向学习更好,符合coarse-to-fine分类原理。
阅读全文
摘要:深度学习网络(RDN):在block内和全局采用短连接和稠密连接的网络结构:Residual dense block & network。
阅读全文
摘要:医学图像分割(UNet):引用量超过8k的、用于医学图像分割的网络结构。UNet短小精悍,靠的是稠密拼接、降采样升采样结构以放大感受野面积。
阅读全文
摘要:图像分类(DenseNet):稠密连接(增大冗余,提高泛化能力),同时减小特征图数量(减小冗余)。
阅读全文
摘要:图像分类(MSDNet):对简单样本采取early-exit机制,可降低计算负担。
阅读全文
摘要:直接学习有噪图像之间的映射,无需干净或无损图像。因为有噪图像和无噪图像的期望在一定条件下相同。
阅读全文
摘要:PyTorch官方教程学习笔记。
阅读全文

浙公网安备 33010602011771号