摘要: 小心你的字典和样板代码 小心你的字典和样板代码 原始文档:https://www.yuque.com/lart/blog/gbd39h 这篇文章主要讨论了编码过程中,使用字典和样板代码时,所犯的一些低级错误。 字典键值对不匹配 今天在修改代码的时候发现了之前一个非常低级的错误,函数返回字典参数的时候,字典的键值对对应错了。 阅读全文
posted @ 2022-07-30 12:43 lart 阅读(53) 评论(0) 推荐(0) 编辑
摘要: PyTorch之Checkpoint机制解析 PyTorch之Checkpoint机制解析 本文已授权极市平台, 并首发于极市平台公众号. 未经允许不得二次转载. 原文链接:https://www.yuque.com/lart/ugkv9f/azvnyg PyTorch 提供了一种非常方便的节省显存的方式,就是 Checkpoint 机制。这篇 阅读全文
posted @ 2022-01-16 13:39 lart 阅读(804) 评论(0) 推荐(0) 编辑
摘要: PyTorch之具体显存占用分析 PyTorch之具体显存占用分析 原始文档:https://www.yuque.com/lart/ugkv9f/cpionp 前言 PyTorch 使用中,由于显卡显存是固定的,并且短期内难以进一步提升,所以掌握显存具体占用的细节有助于我们写出更加高效的代码,甚至跑出更好的结果。 所以本文结合 Co 阅读全文
posted @ 2022-01-16 13:33 lart 阅读(987) 评论(0) 推荐(0) 编辑
摘要: Pytorch之Spatial-Shift-Operation的5种实现策略 Pytorch之Spatial-Shift-Operation的5种实现策略 本文已授权极市平台, 并首发于极市平台公众号. 未经允许不得二次转载. 原始文档(可能会进一步更新): https://www.yuque.com/lart/ugkv9f/nnor5p 前言 之前看了一些使用空间偏移操作来 阅读全文
posted @ 2022-01-16 13:26 lart 阅读(237) 评论(0) 推荐(0) 编辑
摘要: PyTorch之BN核心参数详解 PyTorch之BN核心参数详解 原始文档:https://www.yuque.com/lart/ugkv9f/qoatss affine 初始化时修改 affine 设为 True 时,BatchNorm 层才会学习参数 gamma 和 beta,否则不包含这两个变量,变量名是 weight 和 阅读全文
posted @ 2022-01-16 13:14 lart 阅读(819) 评论(0) 推荐(0) 编辑
摘要: PyTorch之分布式操作Barrier PyTorch之分布式操作Barrier 原始文档:https://www.yuque.com/lart/ugkv9f/gy7sva 关于 barrier 的概念 关于 barrier 这个概念可以参考 Wiki 中的介绍:同步屏障(Barrier)是并行计算中的一种同步方法。对于一群进程或线程,程 阅读全文
posted @ 2022-01-16 13:05 lart 阅读(629) 评论(0) 推荐(0) 编辑
摘要: PyTorch之对类别张量进行one-hot编码 PyTorch之对类别张量进行one-hot编码 本文已授权极市平台, 并首发于极市平台公众号. 未经允许不得二次转载. 原始文档:https://www.yuque.com/lart/ugkv9f/src5w8 代码仓库:https://github.com/lartpang/CodeForArt 阅读全文
posted @ 2022-01-16 13:03 lart 阅读(872) 评论(0) 推荐(0) 编辑
摘要: 长尾分布之DECOUPLING REPRESENTATION AND CLASSIFIER FOR LONG-TAILED RECOGNITION 原始文档:https://www.yuque.com/lart/papers/drggso ICLR 2020的文章. 针对长尾分布的分类问题提出了一种简单有效的基于re-sample范式的策略. 提出的方法将模型的学习过程拆分成两部分:representation learning 和 class 阅读全文
posted @ 2021-11-08 10:47 lart 阅读(590) 评论(0) 推荐(0) 编辑
摘要: 图像分割之Dense Prediction with Attentive Feature Aggregation Dense Prediction with Attentive Feature Aggregation 原始文档: https://www.yuque.com/lart/papers/xnqoi0 偶然间从 arxiv 上翻到的论文, 可以看做是对之前工作 Hierarchical multi-sc 阅读全文
posted @ 2021-11-04 23:06 lart 阅读(207) 评论(0) 推荐(0) 编辑
摘要: 与中文对齐的英文等宽字体 与中文对齐的英文等宽字体 原始文档:https://www.yuque.com/lart/blog/wbhfef 前言 等宽字体是编程中常会用到的一些字体, 基本的形式就是所有符号的宽度都是一样的. 但由于大多数等宽字体设计时并未考虑对中文字符的兼容, 所以我们在使用时会面对这样一个问题, 就是中文 阅读全文
posted @ 2021-10-31 17:07 lart 阅读(743) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2021-06-07 17:24 lart 阅读(853) 评论(0) 推荐(0) 编辑
摘要: Re-thinking Co-Salient Object Detection 原始文档:https://www.yuque.com/lart/papers/feumut CoSOD最近的一篇综述, 梳理了该领域的方法, 提出了一个数据集, 在CVPR版本基础上进一步提出了一个新方法. CoSOD 阅读全文
posted @ 2020-12-07 19:41 lart 阅读(663) 评论(0) 推荐(0) 编辑
摘要: ICNet: Intra-saliency Correlation Network for Co-Saliency Detection 原始文档:https://www.yuque.com/lart/papers/abs95w 前言 这是南开大学发表在NeurIPS 2020上的一篇关于Co-Sal 阅读全文
posted @ 2020-12-07 19:30 lart 阅读(438) 评论(0) 推荐(0) 编辑
摘要: 我是如何使计算提速>150倍的 我的原始文档:https://www.yuque.com/lart/blog/lwgt38 书接上文《我是如何使计算时间提速25.6倍》. 上篇文章提到, F-measure使用累计直方图可以进一步加速计算, 但是E-measure却没有改出来. 在写完上篇文章的那个 阅读全文
posted @ 2020-11-30 19:26 lart 阅读(464) 评论(0) 推荐(1) 编辑
摘要: 阅读全文
posted @ 2020-11-30 10:34 lart 阅读(790) 评论(2) 推荐(1) 编辑
摘要: Ubuntu上使用Docker的简易教程 原始文档:https://www.yuque.com/lart/linux/fp6cla 说在开头 在天池的比赛中涉及到了docker的使用。经过多番探究,大致搞明白了使用的基本流程。这里对于关键部分做一个简要总结和链接的跳转。 Docker是什么、有什么优 阅读全文
posted @ 2020-08-03 16:59 lart 阅读(3392) 评论(0) 推荐(0) 编辑
摘要: 一些有用的latex指令, 涉及到图表, 文字等等相关内容. 阅读全文
posted @ 2020-03-07 14:42 lart 阅读(1863) 评论(0) 推荐(0) 编辑
摘要: 针孔相机模型 翻译自Wikipedia,外加自己的一点理解。 原始文档:https://www.yuque.com/lart/idh721/zgv3i6 Pinhole camera model 针孔相机模型(Pinhole camera model),描述了三维空间中的点的坐标与其在理想针孔相机的 阅读全文
posted @ 2019-11-26 14:24 lart 阅读(2932) 评论(0) 推荐(1) 编辑
摘要: PyTorch使用LMDB数据库加速文件读取 原始文档:https://www.yuque.com/lart/ugkv9f/hbnym1 对于数据库的了解较少,文章中大部分的介绍主要来自于各种博客和LMDB的文档,但是文档中的介绍,默认是已经了解了数据库的许多知识,这导致目前只能囫囵吞枣,待之后仔细 阅读全文
posted @ 2019-11-25 14:03 lart 阅读(5767) 评论(1) 推荐(1) 编辑
摘要: PyTorch中的梯度累加 使用PyTorch实现梯度累加变相扩大batch PyTorch中在反向传播前为什么要手动将梯度清零? Pascal的回答 知乎 https://www.zhihu.com/question/303070254/answer/573037166 这种模式可以让梯度玩出更多 阅读全文
posted @ 2019-10-06 22:03 lart 阅读(15411) 评论(0) 推荐(3) 编辑