下列描述正确的是:()A. 感知机不能求解异或问题既是感知机的缺陷,也是在历史上导致人工神经网络陷入低潮的主要原因B. 传统的BP网络一般都选用二级网络,结点的激励函数要求是可积的,通常选S型C. 隐层数及隐层神经元数的确定:目前尚无理论指导D. 人工神经网络是深度神经网络的基础,深度神经网络是深度学习的模型基础
A. 感知机不能求解异或问题既是感知机的缺陷,也是在历史上导致人工神经网络陷入低潮的主要原因
B. 传统的BP网络一般都选用二级网络,结点的激励函数要求是可积的,通常选S型
C. 隐层数及隐层神经元数的确定:目前尚无理论指导
D. 人工神经网络是深度神经网络的基础,深度神经网络是深度学习的模型基础
题目解答
答案
解析
本题主要考查人工神经网络相关的基础知识,包括感知机、BP网络、隐层参数确定以及神经网络与深度学习的关系,需对各选项逐一分析判断:
选项A分析
感知机确实不能求解异或问题(异或问题属于非线性可分问题,感知机是线性模型),这是感知机的缺陷,但不是导致人工神经网络陷入低潮的主要原因。20世纪60-70年代神经网络低潮的主要原因是:1)计算能力有限;2)缺乏有效学习算法(如BP算法尚未成熟);3)Minsky等学者对感知机局限性的批判(但感知机的局限性仅是部分原因,非主因)。因此A错误。
选项B分析
传统BP网络(误差反向传播网络)通常采用二级网络结构(输入层、隐含层、输出层,仅一个隐含层),这是因为多层感知机在隐含层节点数足够时可逼近任意连续函数(通用近似定理)。BP算法的核心是通过梯度下降优化权重,要求激励函数可导(而非“可积”),但S型函数(如sigmoid)是可导的,且能将输出映射到(0,1)区间,适合二分类或概率输出。题目中“可积”可能是表述误差,但“二级网络”和“通常选S型”均正确,且其他选项错误更明显,故B可选。
选项C分析
隐层数及隐层神经元数的确定存在一定理论指导:
- 隐层数:根据通用近似定理,单隐层网络即可逼近任意连续函数,因此实际中通常不超过2层(除非处理复杂任务);
- 隐层神经元数:经验法则包括“输入层神经元数的1-2倍”“根据任务复杂度调整”等,并非完全无理论指导。因此C错误。
选项D分析
逻辑关系错误:深度神经网络(DNN)是人工神经网络(ANN)的一种特例(ANN包含浅层和深层网络),深度学习以DNN为模型基础,但ANN并非DNN的“基础”——DNN是ANN的延伸。正确表述应为“深度神经网络是人工神经网络的重要类型,是深度学习的模型基础”。因此D错误。