题目
梯度下降法中“小批量梯度下降”的特点是?A. 每次更新参数使用全部样本B. 每次更新参数使用单个样本C. 每次更新参数使用部分样本D. 不依赖样本直接计算
梯度下降法中“小批量梯度下降”的特点是?
A. 每次更新参数使用全部样本
B. 每次更新参数使用单个样本
C. 每次更新参数使用部分样本
D. 不依赖样本直接计算
题目解答
答案
C. 每次更新参数使用部分样本
解析
梯度下降法是机器学习中常用的优化算法,其核心在于通过计算损失函数的梯度来更新模型参数。本题考查小批量梯度下降(Mini-batch Gradient Descent)的核心特点,需明确其与批量梯度下降(Batch GD)、随机梯度下降(SGD)的关键区别:
- 批量梯度下降:每次更新使用全部样本,计算准确但效率低。
- 随机梯度下降:每次更新使用单个样本,速度快但梯度波动大。
- 小批量梯度下降:折中两者,每次使用部分样本,平衡效率与稳定性。
破题关键:理解“小批量”的本质是部分样本的批量处理。
小批量梯度下降的工作原理如下:
- 数据分组:将训练集划分为多个互不重叠的小批量(mini-batch),每个批量包含若干样本。
- 梯度计算:对每个小批量,计算其损失函数的平均梯度。
- 参数更新:根据该批量的梯度更新模型参数。
- 循环迭代:重复上述过程直到收敛。
特点总结:
- 部分样本:每次更新仅使用部分样本,减少单次计算量。
- 稳定性:相比随机梯度下降,批量计算降低梯度方差,优化路径更平滑。
- 效率:比批量梯度下降更快收敛,适合大规模数据。