Стохастический градиентный спуск
- Стохастический градиентный спуск (SGD) — популярный метод оптимизации в машинном обучении.
- SGD использует градиент функции потерь для обновления параметров модели.
- Существуют различные варианты SGD, включая импульс и усреднение стохастического градиентного спуска.
- AdaGrad и RMSProp являются модифицированными алгоритмами стохастического градиентного спуска с адаптивной скоростью обучения.
- Adam — обновление оптимизатора RMSProp, объединяющее его с методом Momentum.
- Существуют основанные на знаках варианты стохастического градиентного спуска, упрощающие Adam.
- Поиск по строке с обратным отслеживанием — еще один вариант градиентного спуска, основанный на условии Армихо-Гольдштейна.
- Пересказана только часть статьи. Для продолжения перейдите к чтению оригинала.
Полный текст статьи: