Оглавление
Метод опорных векторов
-
Основы SVM
- SVM – это метод машинного обучения, который использует линейные классификаторы для разделения данных на классы.
- Он был разработан Вапником в 1963 году и является одним из самых популярных алгоритмов машинного обучения.
-
Математическое описание
- SVM использует функцию потерь шарнира для оптимизации гиперплоскости, разделяющей данные.
- Гиперплоскость определяется параметрами w и b, а также функцией потерь шарнира.
- Опорные векторы – это точки данных, которые находятся ближе всего к гиперплоскости.
-
Функция потерь шарнира
- Функция потерь шарнира равна нулю, если точка данных лежит на правильной стороне поля, и пропорциональна расстоянию от поля в противном случае.
- Параметр C в функции потерь шарнира определяет компромисс между размером маржи и расположением точек данных.
-
Нелинейные ядра
- Бернхард Босер и другие предложили использовать ядра для создания нелинейных классификаторов.
- Ядра позволяют преобразовывать точечные произведения в нелинейные пространства признаков.
- Некоторые распространенные ядра включают многочлены, гауссову радиальную базисную функцию и сигмовидную функцию.
-
Обобщение и применение
- SVM хорошо работает на больших выборках, но может иметь проблемы с обобщением в многомерном пространстве признаков.
- Он широко используется в различных областях, включая распознавание образов и анализ текста.
- Пересказана только часть статьи. Для продолжения перейдите к чтению оригинала.