实现ReLU(Rectified Linear Unit,线性整流单元)激活函数。ReLU是深度学习中最常用的激活函数之一,它对正数保持不变,对负数则输出零。
输入描述:
第一行输入一个浮点数,表示输入值。


输出描述:
返回一个浮点数,表示经过ReLU激活函数处理后的结果。
示例1

输入

2.5

输出

2.5
加载中...