摘要: ReLU 函数 ReLU(Rectified Linear Unit,修正线性单元)是目前在深度学习中最常用的激活函数。它的数学表达式非常简单: f(x) = max(0, x) 这意味着当输入 $x$ 大于 0 时,输出就是 $x$ 本身;当输入 $x$ 小于或等于 0 时,输出就是 0。 ReL 阅读全文
posted @ 2025-09-23 21:37 李大嘟嘟 阅读(72) 评论(0) 推荐(0)
摘要: tanh函数(双曲正切函数)是神经网络中一种常用的激活函数,它的数学表达式为: 它的输出范围是 (-1, 1)。 tanh函数的特点 非线性:和 Sigmoid 函数一样,tanh 函数也是非线性的,这使得它能够为神经网络引入非线性特性,从而学习和解决更复杂的问题。 对称性:tanh 函数关于原点对 阅读全文
posted @ 2025-09-23 21:17 李大嘟嘟 阅读(35) 评论(0) 推荐(0)
摘要: #这个版本考虑将隐藏层、输出层及对应的forward和backward封装到对于类中 #减少了步长,实测lr>0.02就会溢出,可能是哪里没有优化好 # 导入必要的库 import numpy as np import os import struct import matplotlib.pyplo 阅读全文
posted @ 2025-09-23 21:06 李大嘟嘟 阅读(17) 评论(0) 推荐(0)
摘要: # 导入必要的库 import numpy as np import os import struct import matplotlib.pyplot as plt # 定义导入函数 def load_images(path): with open(path, "rb") as f: data = 阅读全文
posted @ 2025-09-23 11:20 李大嘟嘟 阅读(12) 评论(0) 推荐(0)