【单选题】下列描述正确的是:()A. 感知机不能求解异或问题既是感知机的缺陷,也是在历史上导致人工神经网络陷入低潮的主要原因B. 传统的BP网络一般都选用二级网络,结点的激励函数要求是可积的,通常选S型C. 隐层数及隐层神经元数的确定:目前尚无理论指导D. 人工神经网络是深度神经网络的基础,深度神经网络是深度学习的模型基础
A. 感知机不能求解异或问题既是感知机的缺陷,也是在历史上导致人工神经网络陷入低潮的主要原因
B. 传统的BP网络一般都选用二级网络,结点的激励函数要求是可积的,通常选S型
C. 隐层数及隐层神经元数的确定:目前尚无理论指导
D. 人工神经网络是深度神经网络的基础,深度神经网络是深度学习的模型基础
题目解答
答案
解析
本题主要考查人工神经网络相关的基础知识,包括感知机的局限性、BP网络的结构与激活函数、隐层参数确定以及神经网络与深度学习的关系,需对各选项逐一分析判断:
选项A分析
感知机确实不能求解异或(XOR)问题,这是其缺陷,但历史上导致人工神经网络陷入低潮的主要原因并非仅感知机的局限性,还包括20世纪70年代算力不足、缺乏有效数据集和理论支持(如反向传播算法未广泛应用)等。因此A选项表述不全面,错误。
选项B分析
传统BP(误差反向传播)网络通常采用二级网络结构(输入层-隐含层-输出层),而非多级。其神经元的激励函数要求可导(而非“可积”),因为BP算法的核心是通过链式法则计算梯度以更新权重,需激活函数可导。不过,S型函数(如Logistic函数)是BP网络中常用的可导激活函数。尽管“可积”表述存在瑕疵,但相比其他选项,B是最接近正确的描述(可能题目表述存在简化)。
选项C分析
隐层数及隐层神经元数的确定并非完全无理论指导,存在一些经验法则(如“奥卡姆剃刀”原则:尽量少的隐层和神经元;输入层与输出层神经元数之和的一半左右等),且部分理论(如万能近似定理)指出单隐层BP网络可近似任意连续函数。因此C选项“尚无理论指导”表述错误。
选项D分析
逻辑关系颠倒:深度神经网络(DNN)是人工神经网络(ANN)的一种特例(包含多个隐层),深度学习以DNN为核心模型,但ANN并非DNN的“基础”——DNN是ANN的扩展。正确表述应为“深度神经网络是人工神经网络的一种,深度学习以深度神经网络为模型基础”。因此D选项错误。
结论
综合来看,B选项是最接近正确的描述(尽管“可积”应为“可导”,但可能题目存在表述简化),其他选项均存在明显错误。