随笔分类 -  深度学习

摘要:PDF: https://arxiv.org/pdf/2211.11682 Code: https://github.com/yangyangyang127/PointCLIP_V2 一、大体内容 在研究背景部分提到,之前提出的PointCLIP 存在两大问题:稀疏投影导致 2D-3D 领域差距大( 阅读全文
posted @ 2025-08-21 15:54 半夜打老虎 阅读(34) 评论(0) 推荐(0)
摘要:Paper: https://openaccess.thecvf.com/content/CVPR2022/papers/Zhang_PointCLIP_Point_Cloud_Understanding_by_CLIP_CVPR_2022_paper.pdf Code: https://githu 阅读全文
posted @ 2025-08-05 13:40 半夜打老虎 阅读(31) 评论(0) 推荐(0)
摘要:前面介绍了pointTransformerV1的导出和python推理,python借助的是onnxruntime_extensions库,通过装饰器的方式可以帮助我们快速验证,但实际部署的时候还是用C++的较多,这一篇介绍一下onnxruntime的C++推理。 一、onnxruntime库安装与 阅读全文
posted @ 2025-07-22 15:14 半夜打老虎 阅读(58) 评论(0) 推荐(0)
摘要:前面介绍了pointTransformerV1训练自定义数据,在实际应用中往往还需要借助C++对其进行推理,这里记录一下导出和推理过程以及中途遇到的一些坑。 相关环境 python: 3.7.16 系统: Windows10和Ubuntu18.04 numpy 1.21.6 onnx 1.14.1 阅读全文
posted @ 2025-06-30 14:25 半夜打老虎 阅读(172) 评论(0) 推荐(0)
摘要:参考代码:https://github.com/Pointcept/PointTransformerV3 简化版本:https://github.com/parkie0517/PointTransformerV3-SemSeg 一、环境配置 1.1 本机环境 python 3.7.16 cuda 1 阅读全文
posted @ 2025-06-05 17:18 半夜打老虎 阅读(270) 评论(0) 推荐(0)
摘要:源码地址:https://github.com/POSTECH-CVLab/point-transformer 一、环境安装 1.1 本机环境 我的相关依赖如下,python版本是3.7.16,cuda版本11.0,unbuntu:18.04 Package Version certifi 2022 阅读全文
posted @ 2025-05-14 20:43 半夜打老虎 阅读(226) 评论(0) 推荐(0)
摘要:Paper: 《GroupViT: Semantic Segmentation Emerges from Text Supervision》 Code: https://github.com/NVlabs/GroupViT 一、大体内容 前面提到的LSeg只是借鉴CLIP利用文本编码器和图像编码器, 阅读全文
posted @ 2025-04-07 17:14 半夜打老虎 阅读(107) 评论(0) 推荐(0)
摘要:Paper: 《LANGUAGE-DRIVEN SEMANTIC SEGMENTATION》 Code: https://github.com/isl-org/lang-seg 一、大体内容 前面CLIP中提到后续很多工作对其进行了扩展,本文提出了的LSeg 模型,就是借鉴CLIP利用文本编码器和图 阅读全文
posted @ 2025-03-19 11:24 半夜打老虎 阅读(90) 评论(0) 推荐(0)
摘要:Paper: 《Learning Transferable Visual Models From Natural Language Supervision》 Code: https://github.com/openai/CLIP 一、大体内容 CLIP(Contrastive Language–I 阅读全文
posted @ 2025-02-28 13:18 半夜打老虎 阅读(109) 评论(0) 推荐(0)
摘要:前面记录了Detr及其改进Deformable Detr。这一篇记录一下用Detr训练自己的数据集。先看下Detr附录中给出的大体源码,整体非常清晰。 接下来记录大体实现过程 一、数据准备 借助labelme对数据进行标注 然后将标注数据转换成COCO格式,得到以下几个文件 其中JPEGImages 阅读全文
posted @ 2024-12-26 22:13 半夜打老虎 阅读(507) 评论(0) 推荐(0)
摘要:PDF:https://arxiv.org/pdf/2010.04159 Code:https://github.com/fundamentalvision/Deformable-DETR 一、大体内容 前面介绍DETR时,说明了其还存在对小物体检测效果不佳和训练慢的问题,Deformable DE 阅读全文
posted @ 2024-12-16 17:12 半夜打老虎 阅读(730) 评论(0) 推荐(0)
摘要:PDF: https://arxiv.org/pdf/2005.12872 Code: https://github.com/facebookresearch/detr 一、大体内容 DETR(DEtection TRansformer)基于Transformer提出了一个全新的端到端的目标检测框架 阅读全文
posted @ 2024-12-06 11:39 半夜打老虎 阅读(505) 评论(0) 推荐(0)
摘要:一、大体内容 PDF:https://arxiv.org/pdf/2103.14030 CODE:https://github.com/microsoft/Swin-Transformer 前面提出的ViT将Transformer引入到了视觉领域,但其重点解决了分类问题,其采用单一尺度提取特征对后续 阅读全文
posted @ 2024-11-29 16:37 半夜打老虎 阅读(395) 评论(0) 推荐(0)
摘要:一、大体内容 PDF: https://arxiv.org/abs/2111.06377 CODE: https://github.com/facebookresearch/mae (原文采用tensorflow 和 TPU 没有开源) 前面已经介绍了Transformer、BERT、ViT,这里理 阅读全文
posted @ 2024-11-22 17:19 半夜打老虎 阅读(106) 评论(0) 推荐(0)
摘要:PDF: https://arxiv.org/abs/2010.11929 CODE: https://github.com/google-research/vision_transformer 一、大体内容 前面介绍了Transformer及其在NLP领域的两大发展方向BERT和GPT,但当时Tr 阅读全文
posted @ 2024-11-14 15:45 半夜打老虎 阅读(171) 评论(0) 推荐(0)
摘要:前面讲解了GPT、BERT相关内容,这一篇记录剩下GPT-2、GPT-3、GPT-4。 相关资料 GPT1: Improving Language Understanding by Generative Pre-Training GPT2: Language Models are Unsupervi 阅读全文
posted @ 2024-09-27 17:22 半夜打老虎 阅读(241) 评论(0) 推荐(0)
摘要:前面介绍了Transformer,随着其发展在NLP领域应用越来越多,在其基础上主要有两篇影响非常大的文章,一篇是GPT,另一篇是BERT。OpenAI提出的GPT采用Transformer解码器结构,一路更新迭代到了现在有了GPT-4,而Google提出的BERT采用Transformer的编码器 阅读全文
posted @ 2024-09-12 19:35 半夜打老虎 阅读(450) 评论(0) 推荐(0)
摘要:Transformer于2017年提出,最开始应用于NLP领域,随着Transformer的快速发展,在视觉领域中也越来越多的论文或应用用到了Transformer,这里记录一下自己学习的一些知识点。 PDF: 《Attention Is All You Need》 Code: attention- 阅读全文
posted @ 2024-09-05 21:26 半夜打老虎 阅读(159) 评论(0) 推荐(0)
摘要:一、Layer Norm 1.1 介绍 LayerNorm(Layer Normalization)是2016年提出的,随着Transformer等模型的大规模推广,LayerNorm出现频率也随之越来越高。其大体思想类似于BatchNorm,对输入的每个样本进行归一化处理,具体就是计算每个输入的均 阅读全文
posted @ 2024-07-28 14:28 半夜打老虎 阅读(2222) 评论(0) 推荐(1)
摘要:先前的一些文章简单介绍了一些点云检测和分割的文献资料,可以看出近些年越来越多的方法结合了Transformer,因此有必要说明一下Transformer的结构,在介绍之前需要了解一些知识点:比如Self Attention、Layer Normalization等等,这一篇先简单了解下Self At 阅读全文
posted @ 2024-07-20 09:43 半夜打老虎 阅读(409) 评论(0) 推荐(0)