牛客题解 | 实现ReLU激活函数
题目
ReLU(Rectified Linear Unit)是一种常用的激活函数,其计算公式为:
\[f(x) = \max(0, x)
\]
其中,\(x\)是输入。
该算法是深度学习中常用的激活函数之一。
标准代码如下
def relu(z: float) -> float:
return max(0, z)
ReLU(Rectified Linear Unit)是一种常用的激活函数,其计算公式为:
其中,\(x\)是输入。
该算法是深度学习中常用的激活函数之一。
def relu(z: float) -> float:
return max(0, z)