随笔分类 -  深度学习

摘要:1TFOPS=1000GFOPS=1000BFOPS. 阅读全文
posted @ 2024-03-25 08:23 水木清扬 阅读(18) 评论(0) 推荐(0)
摘要:https://mp.weixin.qq.com/s/P24YTLi4hHgR6tNQsKIccA USC提出拟牛顿法深度学习优化器Apollo,效果比肩SGD和Adam CV开发者都爱看的 计算机视觉工坊 1周前 计算机视觉工坊 专注于计算机视觉、VSLAM、目标检测、语义分割、自动驾驶、深度学习 阅读全文
posted @ 2021-09-22 08:56 水木清扬 阅读(470) 评论(0) 推荐(0)
摘要:激活函数是神经网络模型重要的组成部分,本文作者Sukanya Bag从激活函数的数学原理出发,详解了十种激活函数的优缺点。 激活函数(Activation Function)是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式。类似于人类大脑中基于神经元的模型,激活函数最终决定了要发射 阅读全文
posted @ 2021-02-28 08:35 水木清扬 阅读(1308) 评论(0) 推荐(0)
摘要:mmdetection最小复刻版(七):anchor-base和anchor-free差异分析 原创 深度眸 机器学习算法工程师 前天 收录于话题 #深度学习 28 #目标检测 39 AI编辑:深度眸 0 摘要 论文题目:Bridging the Gap Between Anchor-based a 阅读全文
posted @ 2020-12-25 09:58 水木清扬 阅读(1675) 评论(0) 推荐(0)
摘要:PyTorch 源码解读之 BN & SyncBN 机器学习算法工程师 今天 点蓝色字关注“机器学习算法工程师” 设为星标,干货直达! AI编辑:我是小将 本文作者:OpenMMLab @205120 https://zhuanlan.zhihu.com/p/337732517 本文已由原作者授权 阅读全文
posted @ 2020-12-21 13:38 水木清扬 阅读(1975) 评论(0) 推荐(0)
摘要:综述:神经网络中 Normalization 的发展历程 机器学习研究组订阅号 昨天 作者丨没头脑@知乎来源丨https://zhuanlan.zhihu.com/p/75539170目录 Local Response Normalization Batch Normalization Weight 阅读全文
posted @ 2020-12-17 09:12 水木清扬 阅读(421) 评论(0) 推荐(0)
摘要:来自 | 知乎 作者丨玖零猴 链接丨https://zhuanlan.zhihu.com/p/113285797 编辑丨极市平台 空洞卷积在图像分割需要增加感受野同时保持特征图的尺寸的需求中诞生,本文详细介绍了空洞卷积的诞生、原理、计算过程以及存在的两个潜在的问题,帮助大家将空洞卷积这一算法“消化吸 阅读全文
posted @ 2020-12-15 09:17 水木清扬 阅读(3552) 评论(0) 推荐(0)
摘要:centerX: 用新的视角的方式打开CenterNet CPFLAME 机器学习算法工程师 昨天 AI编辑:我是小将 本文作者: CPFLAME https://zhuanlan.zhihu.com/p/323814368 本文已由原作者授权 笔者重构了一版centernet(objects as 阅读全文
posted @ 2020-12-14 11:15 水木清扬 阅读(1423) 评论(0) 推荐(0)
摘要:本文转载自:AI人工智能初学者论文:https://arxiv.org/abs/2012.00257 本文提出了一种优于NMS的非IoU替代方案,其在边界框保留和抑制方面不依赖IoU或最大置信度得分。在YOLOv3、RetinaNet和Mask R-CNN等检测器上实验证明,Confluence比N 阅读全文
posted @ 2020-12-14 10:58 水木清扬 阅读(1507) 评论(0) 推荐(0)
摘要:大白话讲解MobileNet-v3 (38条消息) 大白话讲解MobileNet-v3_期待黎明的博客-CSDN博客 大白话讲解MobileNet-v3 无人不智能,机器不学习 2019-12-09 21:33:41 3400 收藏 9 分类专栏: 算法 TensorFlow 深度学习 文章标签:  阅读全文
posted @ 2020-11-26 10:45 水木清扬 阅读(1633) 评论(0) 推荐(0)
摘要:https://blog.csdn.net/weixin_39228381/article/details/107896863 目录 说明 BatchNorm1d参数 num_features eps momentum affine track_running_stats BatchNorm1d训练 阅读全文
posted @ 2020-11-19 18:38 水木清扬 阅读(8051) 评论(0) 推荐(1)
摘要:https://blog.csdn.net/weixin_39875161/article/details/88364442 vgg网络的一些问题 ChengLaun 2019-03-09 12:19:58 1112 收藏 4 分类专栏: 网络架构 版权 填充方式为 1 为same ,0为为vail 阅读全文
posted @ 2020-11-19 17:29 水木清扬 阅读(632) 评论(0) 推荐(0)
摘要:https://www.pianshen.com/article/76371333833/ 关于卷积层,全连接层,池化层的相关输出参数计算 目录 说明 全连接层FC,全连接NN 卷积Convolutional 模型占用显存的计算 为了更好的说明问题,\另一个文中进行说明,本文内容都是一些概念/理论的 阅读全文
posted @ 2020-11-19 17:18 水木清扬 阅读(612) 评论(0) 推荐(0)
摘要:查看ncnn中模型为type_layer_name的feature map尺寸 std::string type_layer_name = "face_rpn_type_prob_reshape_stride" + std::to_string(RPNs_[i]); ex.extract(class 阅读全文
posted @ 2020-11-16 11:01 水木清扬 阅读(296) 评论(0) 推荐(0)
摘要:https://blog.csdn.net/qq_41997920/article/details/90246721 在训练完一个网络保存模型以后,我常常会将最优的模型保存,放在文件夹中以备用到!但会想模型的大小是由什么决定的呢?其实我们的模型在我们确定网络结构以后就已经将模型的大小确定了。下面将具 阅读全文
posted @ 2020-11-16 10:56 水木清扬 阅读(1412) 评论(0) 推荐(0)
摘要:实战 迁移学习 VGG19、ResNet50、InceptionV3 实践 猫狗大战 问题 参考博客:::https://blog.csdn.net/pengdali/article/details/79050662 2018年01月13日 12:52:14 pengdali 阅读数 10417 实 阅读全文
posted @ 2019-07-23 14:51 水木清扬 阅读(1437) 评论(0) 推荐(0)
摘要:无论即将到来的是大数据时代还是人工智能时代,亦或是传统行业使用人工智能在云上处理大数据的时代,作为一个有理想有追求的程序员,不懂深度学习(Deep Learning)这个超热的技术,会不会感觉马上就out了?现在救命稻草来了,《零基础入门深度学习》系列文章旨在讲帮助爱编程的你从零基础达到入门级水平。 阅读全文
posted @ 2019-03-04 21:28 水木清扬 阅读(735) 评论(0) 推荐(0)
摘要:无论即将到来的是大数据时代还是人工智能时代,亦或是传统行业使用人工智能在云上处理大数据的时代,作为一个有理想有追求的程序员,不懂深度学习(Deep Learning)这个超热的技术,会不会感觉马上就out了?现在救命稻草来了,《零基础入门深度学习》系列文章旨在讲帮助爱编程的你从零基础达到入门级水平。 阅读全文
posted @ 2019-03-04 21:28 水木清扬 阅读(2121) 评论(1) 推荐(0)
摘要:无论即将到来的是大数据时代还是人工智能时代,亦或是传统行业使用人工智能在云上处理大数据的时代,作为一个有理想有追求的程序员,不懂深度学习(Deep Learning)这个超热的技术,会不会感觉马上就out了?现在救命稻草来了,《零基础入门深度学习》系列文章旨在讲帮助爱编程的你从零基础达到入门级水平。 阅读全文
posted @ 2019-03-04 21:27 水木清扬 阅读(1094) 评论(0) 推荐(0)
摘要:无论即将到来的是大数据时代还是人工智能时代,亦或是传统行业使用人工智能在云上处理大数据的时代,作为一个有理想有追求的程序员,不懂深度学习(Deep Learning)这个超热的技术,会不会感觉马上就out了?现在救命稻草来了,《零基础入门深度学习》系列文章旨在讲帮助爱编程的你从零基础达到入门级水平。 阅读全文
posted @ 2019-03-04 21:26 水木清扬 阅读(779) 评论(0) 推荐(0)