牛客题解 | 实现ReLU激活函数

题目

题目链接

ReLU(Rectified Linear Unit)是一种常用的激活函数,其计算公式为:

\[f(x) = \max(0, x) \]

其中,\(x\)是输入。
该算法是深度学习中常用的激活函数之一。

标准代码如下

def relu(z: float) -> float:
    return max(0, z)
posted @ 2025-03-12 12:53  wangxiaoxiao  阅读(55)  评论(0)    收藏  举报