摘要: 目录1. 核心作用(1) 引入非线性(2) 增强特征表达能力2. ReLU的独特优势(1) 缓解梯度消失问题(2) 计算高效(3) 稀疏激活3. 在活体猪IMF预测中的应用(1) 网络结构中的位置(2) 实际效果4. ReLU的局限性及改进(1) 神经元死亡(Dead ReLU)(2) 输出非零中心 阅读全文
posted @ 2025-03-25 17:23 guanyubo 阅读(1465) 评论(0) 推荐(0)
摘要: 目录version11. 本质联系:都是“数学函数拟合器”2. Transformer vs 传统神经网络(1) 传统神经网络的局限(2) Transformer的突破3. Transformer如何借鉴并改进神经网络?4. 直观例子:翻译任务5. 结构对比图传统RNN(如LSTM)Transfor 阅读全文
posted @ 2025-03-25 13:09 guanyubo 阅读(877) 评论(0) 推荐(0)
摘要: 目录1. 核心思想:试错学习2. 训练步骤详解步骤1:前向传播(Forward Pass)—— 做预测步骤2:计算损失(Loss)—— 检查错多远步骤3:反向传播(Backpropagation)—— 找出谁该背锅步骤4:梯度下降(Gradient Descent)—— 调整参数步骤5:重复迭代3. 阅读全文
posted @ 2025-03-25 13:08 guanyubo 阅读(474) 评论(0) 推荐(0)
摘要: 目录1. 核心区别一句话总结RNN(循环神经网络)CNN(卷积神经网络)对比总结2. 直观比喻3. 举个生活例子🌰例子1:读一句话例子2:看一张猫的图片4. 技术细节对比5. 为什么现在Transformer(如GPT)更火?总结 1. 核心区别一句话总结 RNN:适合处理按顺序来的数据(比如一句 阅读全文
posted @ 2025-03-25 10:58 guanyubo 阅读(1196) 评论(0) 推荐(0)
摘要: 目录1. 动态权重分配(Context-Awareness)2. 并行化处理(Efficiency)3. 长距离依赖建模(Long-Range Dependencies)4. 可解释性(Interpretability)5. 灵活性(Flexibility)6. 对输入变化的鲁棒性对比传统方法的直观 阅读全文
posted @ 2025-03-25 09:58 guanyubo 阅读(285) 评论(0) 推荐(0)