Среднее измерение
Средний размер Определение средней размерности Средняя размерность — это мера сложности топологической динамической системы. Введена Громовым в 1999 году и […]
Средний размер Определение средней размерности Средняя размерность — это мера сложности топологической динамической системы. Введена Громовым в 1999 году и […]
Динамическая система, сохраняющая меру Определение динамической системы Динамическая система — это тройка (X, B, T), где X — пространство, B
Энтропийное кодирование Основы энтропийного кодирования Энтропийное кодирование — метод сжатия данных без потерь, стремящийся к нижней границе, установленной теоремой Шеннона.
Энтропийное кодирование Основы энтропийного кодирования Энтропийное кодирование — метод сжатия данных без потерь, стремящийся к нижней границе, установленной теоремой Шеннона.
Недоумение Определение и использование недоумения Недоумение — это показатель, который оценивает способность языковой модели предсказывать следующее слово. Используется для сравнения
Сложность изменения информации Определение сложности Сложность системы определяется как количество информации, необходимое для описания ее состояния. Сложность связана с энтропией,
Точечная взаимная информация Определение и свойства PMI PMI — это мера сходства между двумя событиями, основанная на их совместной вероятности.
Перекрестная энтропия Определение и свойства кросс-энтропии Кросс-энтропия — это мера различия между двумя распределениями вероятностей. Она используется для оценки качества
Информационное наполнение Определение информации Информация — это уменьшение неопределенности. Информация измеряется в битах. Примеры информации Информация о том, что кубик
Бинарная энтропийная функция Определение бинарной энтропии Энтропия процесса Бернулли с вероятностью p одного из двух значений. Формула энтропии зависит от
Энтропия в термодинамике и теории информации Определение и свойства энтропии Энтропия — мера беспорядка в системе, связанная с вероятностью состояния.
Дивергенция Кульбака–Лейблера Определение и свойства Дивергенция Кульбака-Лейблера (DKL) — мера различия между двумя вероятностными распределениями. DKL является обобщением энтропии и
Conditional mutual information Определение и свойства взаимной информации Взаимная информация — это мера зависимости между двумя случайными переменными. Она измеряется
Взаимная информация Определение и свойства взаимной информации Взаимная информация — это мера зависимости между двумя случайными величинами. Она измеряется как
Совместная энтропия Определение энтропии Энтропия — мера неопределенности в теории информации. Общая энтропия набора случайных величин — сумма индивидуальных энтропий.
Условная энтропия Определение условной энтропии Условная энтропия — это мера неопределенности значения случайной величины относительно другой. Энтропия измеряется в битах
Статистическая обработка (математика) Определение и свойства статистической функции Статистическая функция — это функция, которая описывает распределение вероятностей для случайных величин.
Негэнтропия Негэнтропия — мера расстояния до нормальности в теории информации и статистике. Термин «отрицательная энтропия» был введен Эрвином Шредингером в
Принцип максимальной энтропии Принцип максимальной энтропии: распределение вероятностей, отражающее текущее состояние знаний, имеет наибольшую энтропию. Принцип максимальной энтропии используется для
Информационный критерий Акаике Akaike Information Criterion (AIC) используется для выбора статистической модели. AIC основан на теоретико-информационном подходе и связан с
Дифференциальная энтропия Энтропия — мера неопределенности случайной величины. Дифференциальная энтропия используется для измерения неопределенности случайных векторов. Энтропия связана с энтропией