07 2022 档案

摘要:【自动微分实现】反向OO实现自动微分(Pytroch核心机制) 写【自动微分】原理和实现系列文章,存粹是为了梳理在 MindSpore 当SE时候最核心的自动微分原理。网上看了很多文章,基本上都是很零散,当然Automatic Differentiation in Machine Learning: 阅读全文
posted @ 2022-07-31 13:41 ZOMI酱酱 阅读(160) 评论(0) 推荐(0) 编辑
摘要:MobileViT 结构上基本基于 MobileNet V2 而改进增加了 MobileViT block,但是同样能够实现一个不错的精度表现,文章实验部分大量的对比了 MobileViT 跟 CNN 和 ViT 模型的参数量和模型大小,不过值得一提的是在端侧除了模型大小以外,更加重视模型的性能,只能说这篇文章经典之处是开创了 CNN 融合 ViT 在端侧的研究。 阅读全文
posted @ 2022-07-22 16:51 ZOMI酱酱 阅读(827) 评论(0) 推荐(0) 编辑
摘要:那现在!是否有可能结合 CNN 和 ViT 的优势,为移动视觉任务构建一个轻量级、低延迟的网络? 为此,作者提出了 MobileViT,一种用于移动设备的轻量级通用视觉Transformer。 阅读全文
posted @ 2022-07-21 00:09 ZOMI酱酱 阅读(327) 评论(0) 推荐(0) 编辑
摘要:DeiT 是一个全 Transformer 的架构。其核心是提出了针对 ViT 的教师-学生蒸馏训练策略,并提出了 token-based distillation 方法,使得 Transformer 在视觉领域训练得又快又好。 阅读全文
posted @ 2022-07-20 00:17 ZOMI酱酱 阅读(982) 评论(0) 推荐(1) 编辑
摘要:何凯明从 CVPR 2020 上发表的 MoCo V1(Momentum Contrast for Unsupervised Visual Representation Learning),到前几天挂在arxiv上面的 MoCo V3(An Empirical Study of Training Self-Supervised Visual Transformers),MoCo一共走过了三个版本。今天介绍 MoCo 系列第三版,MoCo v1 和 v2 是针对 CNN 设计的,而 MoCo v3 是针对 Transformer 结构设计的,反映了 MoCo 系列对视觉模型的普适性。 阅读全文
posted @ 2022-07-18 22:17 ZOMI酱酱 阅读(407) 评论(0) 推荐(0) 编辑
摘要:何凯明从 CVPR 2020 上发表的 MoCo V1(Momentum Contrast for Unsupervised Visual Representation Learning),到前几天挂在arxiv上面的 MoCo V3(An Empirical Study of Training Self-Supervised Visual Transformers),MoCo一共走过了三个版本。今天介绍 MoCo 系列第二版 MoCo v2 就是在 SimCLR 发表后结合了 SimCLR 优点的图像自监督学习方法,MoCo v1 和 v2 是针对 CNN 设计的,而 MoCo v3 是针对 Transformer 结构设计的,反映了 MoCo 系列对视觉模型的普适性。 阅读全文
posted @ 2022-07-18 22:14 ZOMI酱酱 阅读(428) 评论(0) 推荐(0) 编辑
摘要:何凯明从 CVPR 2020 上发表的 MoCo V1(Momentum Contrast for Unsupervised Visual Representation Learning),到前几天挂在arxiv上面的 MoCo V3(An Empirical Study of Training Self-Supervised Visual Transformers),MoCo一共走过了三个版本。今天介绍 MoCo 系列第一版 MoCo v1 就是在 SimCLR 发表前经典的图像自监督学习方法,MoCo v1 和 v2 是针对 CNN 设计的,而 MoCo v3 是针对 Transformer 结构设计的,反映了 MoCo 系列对视觉模型的普适性。 阅读全文
posted @ 2022-07-18 22:11 ZOMI酱酱 阅读(767) 评论(0) 推荐(0) 编辑