上一页 1 2 3 4 5 6 ··· 16 下一页
摘要: 1. 前言 LangChain是一个用来构建LLM应用的开源框架,主要是为基于大语言模型的应用提供一系列的构建工具包。这个短课程的主要内容有: 模型、提示和解析器:调用LLM,提供提示并解析响应。 LLM的记忆:用于存储对话和管理有限上下文空间的记忆。 链式操作:创建操作序列。 文档问答:将LLM应 阅读全文
posted @ 2023-07-12 14:47 大师兄啊哈 阅读(871) 评论(0) 推荐(0) 编辑
摘要: 参考博客:MobileViT模型简介 参考视频:15.1 MobileViT网络讲解 MobileViT结构上是一个混合模型,CNN+Transformer,比主流的轻量化ViT网络和轻量化CNN网络参数量少,精度高,缺点是推理速度慢,下图可以看到,推理时间是MobileNetV2的8倍。 网络结构 阅读全文
posted @ 2023-06-13 10:50 大师兄啊哈 阅读(252) 评论(0) 推荐(0) 编辑
摘要: 参考博客:ConvNeXt网络详解 参考视频:13.1 ConvNeXt网络讲解 ConvNeXt其实就是面向Swin Transformer的架构进行炼丹,最后获得一个比Swin Transformer还要牛逼的网络。 阅读全文
posted @ 2023-06-12 12:31 大师兄啊哈 阅读(89) 评论(0) 推荐(0) 编辑
摘要: 参考博客:Swin-Transformer网络结构详解 参考视频: 12.1 Swin-Transformer网络结构详解 Swin Transformer论文精读【论文精读】 使用了类似卷积神经网络中的层次化构建方法(Hierarchical feature maps),比如特征图尺寸中有对图像下 阅读全文
posted @ 2023-06-11 11:30 大师兄啊哈 阅读(41) 评论(0) 推荐(0) 编辑
摘要: 参考博客:Vision Transformer详解 参考视频:11.1 Vision Transformer(vit)网络详解 基本流程: 提取embedding:将原图分为若干patch,使用convnet提取每个patch的特征作为embedding,然后在前面concat一个用来分类的embe 阅读全文
posted @ 2023-06-10 11:54 大师兄啊哈 阅读(52) 评论(0) 推荐(0) 编辑
摘要: 参考博客:睿智的目标检测36——Pytorch搭建Efficientdet目标检测平台参考视频:Pytorch 搭建自己的Efficientdet目标检测平台EfficientNet+BIFPN+解耦Head(类似RetinaNet),Anchor-Base 阅读全文
posted @ 2023-06-08 14:48 大师兄啊哈 阅读(11) 评论(0) 推荐(0) 编辑
摘要: 参考博客:FCOS网络解析 参考视频:FCOS网络讲解 从Anchor-Base转到Anchor-free,其实会有几个问题,一个是如何匹配正负样本?第二个是预测时中心点坐标怎么定? 如何匹配正负样本? 网络采用了FCN,得到若干个待预测的特征图,然后将每个GT的范围映射到特征图中,只要特征图中的某 阅读全文
posted @ 2023-06-07 11:32 大师兄啊哈 阅读(20) 评论(0) 推荐(0) 编辑
摘要: 1. V1参考博客:EfficientNet网络详解 参考视频:9.1 EfficientNet网络详解 基于MobileNetV3的基本模块改进后形成EfficientNet-B0,并以其为基准网络,对输入图像分辨率r,网络的深度depth及网络的宽度width三个参数,在限定内存和计算量的条件下 阅读全文
posted @ 2023-06-06 18:27 大师兄啊哈 阅读(64) 评论(0) 推荐(0) 编辑
摘要: 1. 前言 google团队MobileNet系列的第三个版本,在论文《Searching for MobileNetV3》中提出。感觉主要在Mnasnet和MobileNetV2上进行改进,主要工作有以下几点: 更新V2中的倒残差结构(bneck),重新设计激活函数 使用NAS搜索参数 重新设计耗 阅读全文
posted @ 2023-06-06 18:21 大师兄啊哈 阅读(2023) 评论(0) 推荐(0) 编辑
摘要: 1. 前言 这篇论文也是何凯明的团队在2017年的论文《Focal Loss for Dense Object Detection》中提出的,网络架构魔改了FPN,因此这篇论文的重点是提出了新的分类Loss——Focal Loss,用一个合适的函数,去度量难分类和易分类样本对总的损失函数的贡献。解决 阅读全文
posted @ 2023-06-05 18:16 大师兄啊哈 阅读(65) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 16 下一页