题目判断题随机梯度下降(SGD)利用所有训练样本更新参数,但计算效率较低正确 错误判断题 随机梯度下降(SGD)利用所有训练样本更新参数,但计算效率较低 正确 错误题目解答答案错误解析随机梯度下降(SGD)是一种优化算法,它不是利用所有训练样本更新参数,而是每次迭代只使用一个样本。这种方法可以提高计算效率,因为它减少了每次迭代的计算量。然而,这也意味着SGD的更新方向可能不如批量梯度下降稳定,因为单个样本的梯度可能有较大的方差。