题目
9. (1.0分) 以下关于梯度下降的说法错误的是( )。A. 随机梯度下降 (SGD) 每次更新使用一个样本B. 批量梯度下降 (BGD) 保证全局最优但速度慢C. 小批量梯度下降 (MBGD) 综合了BGD和SGD的优点D. SGD的收敛速度一定比BGD快
9. (1.0分) 以下关于梯度下降的说法错误的是( )。
A. 随机梯度下降 (SGD) 每次更新使用一个样本
B. 批量梯度下降 (BGD) 保证全局最优但速度慢
C. 小批量梯度下降 (MBGD) 综合了BGD和SGD的优点
D. SGD的收敛速度一定比BGD快
题目解答
答案
D. SGD的收敛速度一定比BGD快
解析
步骤 1:理解梯度下降方法
梯度下降是一种优化算法,用于最小化损失函数。它通过迭代地调整参数来找到损失函数的最小值。梯度下降有几种变体,包括批量梯度下降 (BGD)、随机梯度下降 (SGD) 和小批量梯度下降 (MBGD)。
步骤 2:分析选项 A
随机梯度下降 (SGD) 每次更新使用一个样本。这是正确的,因为 SGD 在每次迭代中使用一个随机选择的样本进行参数更新。
步骤 3:分析选项 B
批量梯度下降 (BGD) 保证全局最优但速度慢。这是正确的,因为 BGD 使用所有样本计算梯度,从而确保找到全局最优解,但计算量大,速度慢。
步骤 4:分析选项 C
小批量梯度下降 (MBGD) 综合了 BGD 和 SGD 的优点。这是正确的,因为 MBGD 使用一个小批量的样本进行梯度计算,从而在计算效率和收敛速度之间取得平衡。
步骤 5:分析选项 D
SGD 的收敛速度一定比 BGD 快。这是错误的,因为虽然 SGD 通常比 BGD 快,但并不总是如此。SGD 的收敛速度取决于学习率、样本选择和损失函数的性质。
梯度下降是一种优化算法,用于最小化损失函数。它通过迭代地调整参数来找到损失函数的最小值。梯度下降有几种变体,包括批量梯度下降 (BGD)、随机梯度下降 (SGD) 和小批量梯度下降 (MBGD)。
步骤 2:分析选项 A
随机梯度下降 (SGD) 每次更新使用一个样本。这是正确的,因为 SGD 在每次迭代中使用一个随机选择的样本进行参数更新。
步骤 3:分析选项 B
批量梯度下降 (BGD) 保证全局最优但速度慢。这是正确的,因为 BGD 使用所有样本计算梯度,从而确保找到全局最优解,但计算量大,速度慢。
步骤 4:分析选项 C
小批量梯度下降 (MBGD) 综合了 BGD 和 SGD 的优点。这是正确的,因为 MBGD 使用一个小批量的样本进行梯度计算,从而在计算效率和收敛速度之间取得平衡。
步骤 5:分析选项 D
SGD 的收敛速度一定比 BGD 快。这是错误的,因为虽然 SGD 通常比 BGD 快,但并不总是如此。SGD 的收敛速度取决于学习率、样本选择和损失函数的性质。