Skip to content

随机梯度下降法(Stochastic gradient descent | SGD)

  • Home
  • AI 知识库
  • 数学基础

随机梯度下降法(Stochastic gradient descent | SGD)

Section titled “随机梯度下降法(Stochastic gradient descent | SGD)”

文章目录

随机梯度下降(通常缩短为SGD),也称为增量梯度下降,是用于优化可微分目标函数的迭代方法,梯度下降优化的随机近似。 2018年的一篇文章暗示Herbert Robbins和Sutton Monro在其1951年题为“随机近似方法”的文章中发展SGD。有关更多信息,请参阅随机近似。它被称为随机的 因为样本是随机选择(或混洗)而不是作为单个组(如标准梯度下降)或按训练集中出现的顺序选择的。 查看详情 2019年1月6日 by 打不死的小强 Updated: 2022年8月16日

Section titled “随机梯度下降(通常缩短为SGD),也称为增量梯度下降,是用于优化可微分目标函数的迭代方法,梯度下降优化的随机近似。 2018年的一篇文章暗示Herbert Robbins和Sutton Monro在其1951年题为“随机近似方法”的文章中发展SGD。有关更多信息,请参阅随机近似。它被称为随机的 因为样本是随机选择(或混洗)而不是作为单个组(如标准梯度下降)或按训练集中出现的顺序选择的。 查看详情 2019年1月6日 by 打不死的小强 Updated: 2022年8月16日”

SGD, Stochastic gradient descent, 随机梯度下降法 Thanks for your rating! You have already rated this article An error occured, please try again later

11


本文介绍了相关AI概念的基本原理和应用场景。

该技术在计算机视觉、自然语言处理、推荐系统等领域有广泛应用。