1.深度学习面试79题:涵盖深度学习所有考点(1-50) - 知乎 (zhihu.com) (看到:22题)
(59条消息) 中心化(又叫零均值化)和标准化(又叫归一化)_GoodShot的博客-CSDN博客_变量中心化是什么意思
奇异值分解(SVD)原理与在降维中的应用 - 刘建平Pinard - 博客园 (cnblogs.com)
(59条消息) (太长太全面了)CNN超详细介绍_薛定谔的炼丹炉!的博客-CSDN博客_cnn介绍
卷积神经网络CNN(卷积池化、感受野、共享权重和偏置、特征图) - 知乎 (zhihu.com)
详解激活函数(Sigmoid/Tanh/ReLU/Leaky ReLu等) - 知乎 (zhihu.com)
浅谈神经网络中的梯度爆炸问题 - 知乎 (zhihu.com)
深度学习中Dropout原理解析 - 知乎 (zhihu.com)
什么是批标准化 (Batch Normalization) - 知乎 (zhihu.com)
通俗理解生成对抗网络GAN - 知乎 (zhihu.com)
一文读懂Embedding的概念,以及它和深度学习的关系 - 知乎 (zhihu.com)
待看:
了解那些激活函数以及应用?回答主要分两类(饱和/非饱和),以及应用场景等。有时候可能特定到具体经典模型,比如LSTM用到Tanh,Transfromer中用到的ReLU,Bert中的GeLU,YOLO的Leaky ReLU等
RNN LSTM
浙公网安备 33010602011771号