Дифференциальная энтропия
- Энтропия — мера неопределенности случайной величины.
- Дифференциальная энтропия используется для измерения неопределенности случайных векторов.
- Энтропия связана с энтропией отдельных случайных величин через ковариационную матрицу.
- Дифференциальная энтропия имеет недостатки, такие как отрицательность и неинвариантность при преобразованиях координат.
- Относительная информационная энтропия (дивергенция Кульбака-Лейблера) является модификацией дифференциальной энтропии.
- При нормальном распределении дифференциальная энтропия максимизируется при заданной дисперсии.
- Дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценщика.
Полный текст статьи: