Стохастический градиентный спуск

Стохастический градиентный спуск Стохастический градиентный спуск (SGD) — популярный метод оптимизации в машинном обучении.  SGD использует градиент функции потерь для […]

Стохастический градиентный спуск

  • Стохастический градиентный спуск (SGD) — популярный метод оптимизации в машинном обучении. 
  • SGD использует градиент функции потерь для обновления параметров модели. 
  • Существуют различные варианты SGD, включая импульс и усреднение стохастического градиентного спуска. 
  • AdaGrad и RMSProp являются модифицированными алгоритмами стохастического градиентного спуска с адаптивной скоростью обучения. 
  • Adam — обновление оптимизатора RMSProp, объединяющее его с методом Momentum. 
  • Существуют основанные на знаках варианты стохастического градиентного спуска, упрощающие Adam. 
  • Поиск по строке с обратным отслеживанием — еще один вариант градиентного спуска, основанный на условии Армихо-Гольдштейна. 
  • Пересказана только часть статьи. Для продолжения перейдите к чтению оригинала. 

Полный текст статьи:

Стохастический градиентный спуск — Википедия

Оставьте комментарий

Прокрутить вверх