随机梯度下降法(Stochastic gradient descent | SGD)
随机梯度下降(通常缩短为SGD),也称为增量梯度下降,是用于优化可微分目标函数的迭代方法,梯度下降优化的随机近似。
2018年的一篇文章暗示Herbert Robbins和Sutton Monro在其1951年题为“随机近似方法”的文章中发展SGD。有关更多信息,请参阅随机近似。它被称为随机的 因为样本是随机选择(或混洗)而不是作为单个组(如标准梯度下降)或按训练集中出现的顺序选择的。
2019年1月6日 by [打不死的小强](https://easyai.tech/author/xiaoqiang/) Updated: 2022年8月16日
- ** [数学基础](https://easyai.tech/ai-definition-category/mathematical-foundation/)
- ** [SGD](https://easyai.tech/ai-definition-tag/sgd/), [Stochastic gradient descent](https://easyai.tech/ai-definition-tag/stochastic-gradient-descent/), [随机梯度下降法](https://easyai.tech/ai-definition-tag/%e9%9a%8f%e6%9c%ba%e6%a2%af%e5%ba%a6%e4%b8%8b%e9%99%8d%e6%b3%95/)
Thanks for your rating!
You have already rated this article
An error occured, please try again later
Was This Article Helpful?
** 11