Loading

摘要: 喝了四两酒 阅读全文
posted @ 2025-10-21 23:52 ADDED 阅读(2) 评论(0) 推荐(0)
摘要: 一切有为法,如梦幻泡影。如露亦如电,应作如是观。 阅读全文
posted @ 2025-10-07 21:59 ADDED 阅读(0) 评论(0) 推荐(0)
摘要: 下采样和上采样是图像领域常用的处理方法 简介 下采样就是把图像缩小 上采样就是把图像放大 常用方法 下采样: stride为2的卷积层 stride为2的池化层 上采样 插值 转置卷积 参考文章: 上采样(UnSampling) 和 下采样(DownSampling)是啥? 阅读全文
posted @ 2025-09-24 10:35 ADDED 阅读(14) 评论(0) 推荐(0)
摘要: 本文纯属个人观点,搏您一笑,请勿上升至道德高度 阅读全文
posted @ 2025-09-20 19:42 ADDED 阅读(29) 评论(0) 推荐(1)
摘要: 梯度下降(Gradient Descent)是机器学习、深度学习中常用的优化方法,能够使得模型参数达到局部或整体最优值 阅读全文
posted @ 2025-09-09 11:59 ADDED 阅读(18) 评论(0) 推荐(0)
摘要: 前向传播和反向传播是神经网络训练过程中两个重要的环节,分别决定了预测的最终结果以及权重参数的调整 阅读全文
posted @ 2025-09-06 11:33 ADDED 阅读(19) 评论(0) 推荐(0)
摘要: 梯度消失和梯度爆炸是训练神经网络时经常会遇到的两个问题,会直接影响网络的训练过程和性能 阅读全文
posted @ 2025-09-04 10:36 ADDED 阅读(4) 评论(0) 推荐(0)
摘要: 半夜三更 月光洒在我俩身上 松花江是我的 我是你的 几杯酒入肚 我敢说了 可能的话 想永远抱着 阅读全文
posted @ 2025-09-03 11:54 ADDED 阅读(6) 评论(0) 推荐(0)
摘要: 参考资料:[神经网络算法 - 一文搞懂 Softmax 函数](https://developer.volcengine.com/articles/7382255487758106675) 个人学习用,侵权删 阅读全文
posted @ 2025-09-03 11:53 ADDED 阅读(37) 评论(0) 推荐(0)
摘要: 这是你和别人的区别 ——2025.08.23 阅读全文
posted @ 2025-08-23 23:26 ADDED 阅读(8) 评论(0) 推荐(0)