题目
9. (1.0分) 以下关于梯度下降的说法错误的是( )。 A 随机梯度下降 (SGD) 每次更新使用一个样本B 批量梯度下降 (BGD) 保证全局最优但速度慢C 小批量梯度下降 (MBGD) 综合了BGD和SGD的优点D SGD的收敛速度一定比BGD快
9. (1.0分) 以下关于梯度下降的说法错误的是( )。
A 随机梯度下降 (SGD) 每次更新使用一个样本
B 批量梯度下降 (BGD) 保证全局最优但速度慢
C 小批量梯度下降 (MBGD) 综合了BGD和SGD的优点
D SGD的收敛速度一定比BGD快
题目解答
答案
D
解析
步骤 1:理解梯度下降方法
梯度下降是一种优化算法,用于最小化损失函数。它通过迭代地调整参数来找到损失函数的最小值。梯度下降有几种变体,包括批量梯度下降 (BGD)、随机梯度下降 (SGD) 和小批量梯度下降 (MBGD)。
步骤 2:分析选项 A
随机梯度下降 (SGD) 每次更新使用一个样本。这是正确的,因为 SGD 在每次迭代中使用一个随机选择的样本进行参数更新。
步骤 3:分析选项 B
批量梯度下降 (BGD) 保证全局最优但速度慢。这是正确的,因为 BGD 使用所有样本计算梯度,从而确保找到全局最优解,但计算量大,速度慢。
步骤 4:分析选项 C
小批量梯度下降 (MBGD) 综合了 BGD 和 SGD 的优点。这是正确的,因为 MBGD 使用一个小批量的样本进行梯度计算,从而在计算效率和收敛速度之间取得平衡。
步骤 5:分析选项 D
SGD 的收敛速度一定比 BGD 快。这是错误的,因为虽然 SGD 通常比 BGD 快,但并不总是如此。SGD 的收敛速度取决于学习率、样本选择和损失函数的性质。
梯度下降是一种优化算法,用于最小化损失函数。它通过迭代地调整参数来找到损失函数的最小值。梯度下降有几种变体,包括批量梯度下降 (BGD)、随机梯度下降 (SGD) 和小批量梯度下降 (MBGD)。
步骤 2:分析选项 A
随机梯度下降 (SGD) 每次更新使用一个样本。这是正确的,因为 SGD 在每次迭代中使用一个随机选择的样本进行参数更新。
步骤 3:分析选项 B
批量梯度下降 (BGD) 保证全局最优但速度慢。这是正确的,因为 BGD 使用所有样本计算梯度,从而确保找到全局最优解,但计算量大,速度慢。
步骤 4:分析选项 C
小批量梯度下降 (MBGD) 综合了 BGD 和 SGD 的优点。这是正确的,因为 MBGD 使用一个小批量的样本进行梯度计算,从而在计算效率和收敛速度之间取得平衡。
步骤 5:分析选项 D
SGD 的收敛速度一定比 BGD 快。这是错误的,因为虽然 SGD 通常比 BGD 快,但并不总是如此。SGD 的收敛速度取决于学习率、样本选择和损失函数的性质。