深度学习相关理论
一、深度学习相关理论
1.神经网络概述



2. 卷积神经网络CNN


①卷积层——计算方法是大矩阵内部×小矩阵=较小矩阵,作用是特征提取

②池化层——计算方法是大矩阵通过选取最大值或是平均值变成小矩阵,作用是降维、提高计算效率,防止过拟合

Ⅰ. 最大池化;
Ⅱ. 平均池化;
③全连接层——计算方法是将矩阵展开为一维向量,作用是综合之前层(如卷积层或池化层)提取的特征,起到输出最终结果的作用


3. 循环神经网络RNN及其改进型LSTM(长短期记忆网络)
①RNN




②LSTM







4. 激活函数——将输入信号转换为非线性的形式,使神经网络能够表示复杂的非线性关系,除此之外,还可以限制输出范围、缓解梯度消失问题

①Sigmoid函数——适用于二分类问题


②Tanh激活函数——常用于隐藏层中,尤其在循环神经网络(RNN)和长短期记忆网络(LSTM)等结构中。然而,由于其存在梯度消失的问题,有时候也会被其它激活函数如 ReLU 所取代

③ReLU激活函数——计算简单,可以缓解梯度消失,缺点是无法对负值做出有效反馈

④Leaky ReLU函数

5. 损失函数——衡量预测值和真实值之间的差异,结合优化算法(如梯度下降),更新模型参数


5. 注意力机制
二、人脸识别
1. 人脸识别基本流程


2. 人脸识别评价指标



三、经典模型
1. YOLO
参考文章:YOLOv1---YOLOv5论文解读
你一定从未看过如此通俗易懂的YOLO系列(从v1到v5)模型解读 (上)
你一定从未看过如此通俗易懂的YOLO系列(从v1到v5)模型解读 (中)
你一定从未看过如此通俗易懂的YOLO系列(从v1到v5)模型解读 (下)
①YOLO V5
没有发表论文,github地址:https://github.com/ultralytics/yolov5

浙公网安备 33010602011771号