题目
以下哪个不是常见的激活函数?A. Sigmoid ( )B. ReLU ( )C. Softmax (D. Gradient Descent
以下哪个不是常见的激活函数?
A. Sigmoid ( )
B. ReLU ( )
C. Softmax (
D. Gradient Descent
题目解答
答案
D. Gradient Descent
解析
激活函数是神经网络中用于引入非线性的重要组件。常见的激活函数包括Sigmoid、ReLU和Softmax。Sigmoid函数将输入压缩到0到1之间,ReLU函数将负值设为0,而正值保持不变,Softmax函数常用于多分类问题中,将输出转换为概率分布。Gradient Descent(梯度下降)是一种优化算法,用于更新神经网络中的权重,而不是激活函数。