题目
神经网络中ReLU激活函数的作用是? A. 引入非线性特性B. 降低计算复杂度
神经网络中ReLU激活函数的作用是?
- A. 引入非线性特性
- B. 降低计算复杂度
题目解答
答案
A
解析
考查要点:本题主要考查对ReLU激活函数作用的理解,重点在于区分其核心功能与其他可能的特性。
解题核心思路:
ReLU激活函数在神经网络中的核心作用是引入非线性特性,这是神经网络具备强大的表达能力的关键。虽然ReLU计算简单,但这一特性属于优化计算效率的附加优势,而非其主要功能。
破题关键点:
- 非线性特性是神经网络突破线性模型限制的核心,而ReLU通过分段线性函数实现了这一目标。
- 计算复杂度降低是ReLU的一个优点,但并非题目所问的“作用”。
选项分析:
-
选项A(引入非线性特性):
神经网络若仅由线性变换组成,其本质仍为线性模型,无法拟合复杂数据。ReLU通过$f(x)=\max(0,x)$的分段线性特性,使模型能够学习非线性决策边界,这是其核心作用。 -
选项B(降低计算复杂度):
ReLU的计算仅涉及阈值判断,确实简化了计算,但这属于工程实现上的优化,而非功能性的“作用”。
结论:
ReLU的主要作用是引入非线性,因此正确答案为A。