上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 32 下一页
摘要: 目录1. Anchor2. 画图 参考:https://zhuanlan.zhihu.com/p/86403390?utm_id=0 1. Anchor 我第一次接触Anchor(中文叫做锚)的时候,比较懵逼的,什么是锚这个问题让思考了好久,这也是阻碍大家学习FasterRCNN最大的绊脚石 索性我 阅读全文
posted @ 2024-03-04 23:33 jack-chen666 阅读(377) 评论(0) 推荐(0)
摘要: 目录1. 什么是目标检测?2. 输出评价IoU3. 目标检测算法 R-CNNN4. SPP-net5. Fast R-CNN6. Faster R-CNN7. YOLO 1. 什么是目标检测? 找出图片中感兴趣的物体,并精确的进行分类 并标定物体的位置 目标检测中 能检测出来的物体 取决于当前任务数 阅读全文
posted @ 2024-02-29 23:58 jack-chen666 阅读(205) 评论(0) 推荐(0)
摘要: 目录1. 模型的定义2. 图片batch generator3. 模型训练 1. 模型的定义 from keras.applications.inception_v3 import InceptionV3 from keras.models import Model from keras.layer 阅读全文
posted @ 2024-02-29 15:53 jack-chen666 阅读(50) 评论(0) 推荐(0)
摘要: 目录1. my_nn2. mnist_cnn 1. my_nn #!/usr/bin/python3 # -*- coding:utf-8 -*- """ Copyright (c) Huawei Technologies Co., Ltd. 2021-2022. All rights reserv 阅读全文
posted @ 2024-02-29 11:08 jack-chen666 阅读(17) 评论(0) 推荐(0)
摘要: 目录1. 01_first_graph2. session run3. global_variables_initializer4. InteractiveSession5. get_default_graph6. life_cicycle07 linear_regression8. manual_ 阅读全文
posted @ 2024-02-29 11:05 jack-chen666 阅读(16) 评论(0) 推荐(0)
摘要: 目录1.2.3.4. 1. # 模型各层之间是线性关系 k层 k+1层可以加上各种元素来构造神经网络 # 这些元素可以通过一个列表来制定 然后作为参数传递给Sequential来生成模型 from keras.models import Sequential from keras.models im 阅读全文
posted @ 2024-02-28 11:42 jack-chen666 阅读(35) 评论(0) 推荐(0)
摘要: 目录1. Normalization2. MobileNet 1. Normalization feature map shape 记为[N, C, H, W],其中 N 表示 batch size,即 N个样本;C 表示通道数;H、W 分别表示特征图的高度、宽度。这几个方法主要的区别就是在: BN 阅读全文
posted @ 2024-02-26 23:56 jack-chen666 阅读(70) 评论(0) 推荐(0)
摘要: 目录1. Inception2. ResNet3. DenseNet4. MobileNet 1. Inception 其中的一部分: Inception相比之前的VGG LeNet这些都是单条线的 Inception 多分支并行 再concat Inception 第一版GoogleNet 特征总 阅读全文
posted @ 2024-02-25 22:54 jack-chen666 阅读(43) 评论(0) 推荐(0)
摘要: 目录1. dropout2. 数据增强3. 优化器 1. dropout 使用 L1 和 L2 正则去限制神经网络连接的 weights 权重 在深度学习中,最流行的正则化技术,它被证明非常成功,即使在顶尖水准的神经网络中也可以带来 1%到 2%的准确度提升,这可能乍听起来不是特别多,但是如果模型已 阅读全文
posted @ 2024-02-24 22:45 jack-chen666 阅读(184) 评论(0) 推荐(0)
摘要: 目录1. 什么是梯度消失2. mnist数据集 应用CNN3. 经典的CNN VGG 1. 什么是梯度消失 在梯度下降中,随着算法反向反馈到前面几层,梯度会越来越小,最终,没有变化,这时或许还没有收敛到比较好的解,这就是梯度消失问题, 梯度爆炸或者消失!!! 1,神经网络损失函数非凸的损失函数,逐步 阅读全文
posted @ 2024-02-22 21:30 jack-chen666 阅读(391) 评论(0) 推荐(0)
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 32 下一页