题目
82. (1.0分) ReLU激活函数在输入为负时输出为0,可能导致神经元“死亡”。A. 对B. 错
82. (1.0分) ReLU激活函数在输入为负时输出为0,可能导致神经元“死亡”。
A. 对
B. 错
题目解答
答案
A. 对
解析
ReLU(Rectified Linear Unit)激活函数定义为 f(x) = max(0, x)。这意味着当输入 x 小于 0 时,ReLU 输出 0。在深度神经网络中,如果一个神经元的输入总是负数,那么它的输出将始终为 0,这可能导致该神经元在训练过程中不再更新其权重,从而“死亡”。这种现象被称为“神经元死亡”或“死ReLU”问题。