Минимизация эмпирического риска

Оглавление1 Эмпирическая минимизация риска1.1 Основы эмпирической минимизации риска1.2 Применение и свойства1.3 Нижние границы производительности1.4 Вычислительная сложность1.5 Наклонная эмпирическая минимизация риска1.6 […]

Эмпирическая минимизация риска

  • Основы эмпирической минимизации риска

    • Эмпирическая минимизация риска – это метод машинного обучения для выбора гипотезы, минимизирующей эмпирический риск. 
    • Риск определяется как математическое ожидание функции потерь, а эмпирический риск – как среднее значение функции потерь по обучающей выборке. 
  • Применение и свойства

    • Байесовский классификатор минимизирует риск, определенный с помощью функции потерь 0-1. 
    • Эмпирический принцип минимизации риска требует выбора гипотезы, минимизирующей эмпирический риск для заданного класса гипотез. 
    • Свойства минимизации эмпирического риска зависят от класса функций и предположений о распределении. 
  • Нижние границы производительности

    • Можно показать нижние границы производительности алгоритмов, если не делать предположений о распределении. 
    • Алгоритмы могут обеспечить асимптотически оптимальную производительность, но конечная выборка всегда будет иметь низкую производительность для некоторых распределений. 
  • Вычислительная сложность

    • Эмпирическая минимизация риска для задач классификации с функцией потерь 0-1 является NP-сложной задачей. 
    • Алгоритмы машинного обучения решают эту проблему, используя выпуклую аппроксимацию функции потерь или допущения о распределении данных. 
  • Наклонная эмпирическая минимизация риска

    • Наклонная эмпирическая минимизация риска – это метод, который динамически регулирует вес точек данных во время обучения. 
    • Этот метод полезен в сценариях с несбалансированными данными или для акцентирования ошибок в определенных частях пространства прогнозирования. 

Полный текст статьи:

Минимизация эмпирического риска — Википедия

Оставьте комментарий

Прокрутить вверх