Машина опорных векторов

Метод опорных векторов Основы SVM SVM — это метод машинного обучения, который использует линейные классификаторы для разделения данных на классы.  […]

Метод опорных векторов

  • Основы SVM

    • SVM — это метод машинного обучения, который использует линейные классификаторы для разделения данных на классы. 
    • Он был разработан Вапником в 1963 году и является одним из самых популярных алгоритмов машинного обучения. 
  • Математическое описание

    • SVM использует функцию потерь шарнира для оптимизации гиперплоскости, разделяющей данные. 
    • Гиперплоскость определяется параметрами w и b, а также функцией потерь шарнира. 
    • Опорные векторы — это точки данных, которые находятся ближе всего к гиперплоскости. 
  • Функция потерь шарнира

    • Функция потерь шарнира равна нулю, если точка данных лежит на правильной стороне поля, и пропорциональна расстоянию от поля в противном случае. 
    • Параметр C в функции потерь шарнира определяет компромисс между размером маржи и расположением точек данных. 
  • Нелинейные ядра

    • Бернхард Босер и другие предложили использовать ядра для создания нелинейных классификаторов. 
    • Ядра позволяют преобразовывать точечные произведения в нелинейные пространства признаков. 
    • Некоторые распространенные ядра включают многочлены, гауссову радиальную базисную функцию и сигмовидную функцию. 
  • Обобщение и применение

    • SVM хорошо работает на больших выборках, но может иметь проблемы с обобщением в многомерном пространстве признаков. 
    • Он широко используется в различных областях, включая распознавание образов и анализ текста. 
    • Пересказана только часть статьи. Для продолжения перейдите к чтению оригинала. 

Полный текст статьи:

Машина опорных векторов — Википедия

Оставьте комментарий

Прокрутить вверх