实现ReLU(Rectified Linear Unit,线性整流单元)激活函数。ReLU是深度学习中最常用的激活函数之一,它对正数保持不变,对负数则输出零。
输入描述:
第一行输入一个浮点数,表示输入值。
输出描述:
返回一个浮点数,表示经过ReLU激活函数处理后的结果。
示例1
输入
2.5
输出
2.5
加载中...
def relu(z: float) -> float: pass if __name__ == "__main__": z = eval(input()) print(relu(z))
2.5
2.5