题目
神经网络中的每一层神经元都会对输入数据进行线性变换。A. 正确B. 错误
神经网络中的每一层神经元都会对输入数据进行线性变换。
A. 正确
B. 错误
题目解答
答案
B. 错误
解析
考查要点:本题主要考查对神经网络基本工作原理的理解,特别是线性变换与非线性激活函数的作用。
解题核心思路:
神经网络的单层运算确实包含线性变换(如矩阵乘法加偏置),但每一层的输出还需通过非线性激活函数处理。若仅进行线性变换,多层叠加仍等价于单层线性模型,无法学习复杂模式。因此,题目中“仅进行线性变换”的表述是错误的。
破题关键点:
- 明确神经网络中线性变换与非线性激活函数的结合使用。
- 理解多层线性变换叠加仍保持线性,而引入非线性函数后模型才具备强大的表达能力。
神经网络的基本结构由多层神经元组成,每层的计算包含以下两步:
- 线性变换:对输入数据进行线性组合,即 $y = Wx + b$($W$ 为权重矩阵,$b$ 为偏置项)。
- 非线性激活:将线性变换的结果通过激活函数(如 ReLU、Sigmoid 等)处理,得到最终输出 $a = \sigma(y)$。
若仅进行线性变换(即省略激活函数),无论多少层叠加,整体仍为线性变换。例如:
- 第一层输出:$y_1 = W_1x + b_1$
- 第二层输出:$y_2 = W_2y_1 + b_2 = W_2(W_1x + b_1) + b_2 = (W_2W_1)x + (W_2b_1 + b_2)$
此时 $y_2$ 仍可表示为 $Wx + b$ 的线性形式。
因此,神经网络的每一层并非仅进行线性变换,必须结合非线性激活函数才能实现非线性建模。题目描述忽略了这一关键步骤,故答案为 错误。