Оглавление
- 1 Теория информации
- 1.1 История теории информации
- 1.2 Основные понятия теории информации
- 1.3 Приложения теории информации
- 1.4 Основные результаты Шеннона
- 1.5 Историческая справка
- 1.6 Энтропия и её единицы
- 1.7 Энтропия источника
- 1.8 Информация и энтропия
- 1.9 Совместная энтропия
- 1.10 Условная энтропия
- 1.11 Взаимная информация
- 1.12 Дивергенция Кульбака-Лейблера
- 1.13 Направленная информация
- 1.14 Другие количества
- 1.15 Теория кодирования
- 1.16 Теория источника
- 1.17 Скорость передачи информации
- 1.18 Скорость работы источника информации
- 1.19 Пропускная способность канала
- 1.20 Канальное кодирование
- 1.21 Каналы с памятью и направленной информацией
- 1.22 Взаимозаменяемая информация
- 1.23 Применение в других областях
- 1.24 Различные области применения
- 1.25 Основные понятия теории информации
- 1.26 Рекомендации и дальнейшее чтение
- 1.27 Полный текст статьи:
- 2 Теория информации
Теория информации
-
История теории информации
- Теория информации была создана Клодом Шенноном в 1940-х годах.
- Первые вклады в теорию были сделаны Гарри Найквистом и Ральфом Хартли в 1920-х годах.
- Теория находится на стыке электронной инженерии, математики, статистики, компьютерных наук, нейробиологии, физики и электротехники.
-
Основные понятия теории информации
- Энтропия количественно определяет степень неопределенности.
- Взаимная информация описывает меру информации, общую для двух случайных величин.
- Пропускная способность канала определяет максимальную скорость передачи информации.
-
Приложения теории информации
- Кодирование исходного кода и сжатие данных.
- Кодирование каналов и обнаружение ошибок.
- Теория нашла применение в криптографии, нейробиологии, обработке сигналов, лингвистике и других областях.
-
Основные результаты Шеннона
- Теорема о кодировании в зашумленных каналах.
- Теорема Шеннона–Хартли о пропускной способности гауссовского канала.
- Бит как новая единица измерения информации.
-
Историческая справка
- Шеннон опубликовал статью “Математическая теория связи” в 1948 году.
- До этого были разработаны ограниченные теоретико-информационные идеи.
- Вклад Людвига Больцмана и Дж. Уилларда Гиббса в термодинамику.
-
Энтропия и её единицы
- Энтропия определяется как мера неопределенности случайной величины.
- Единицы измерения энтропии включают бит, nat и десятичную цифру.
- Энтропия источника информации измеряется в битах на символ.
-
Энтропия источника
- Энтропия источника, выдающего независимые и одинаково распределенные символы, равна N ⋅ H битам.
- Если символы не независимы, энтропия меньше N ⋅ H.
-
Информация и энтропия
- Если каждый бит известен, информация не передается.
- Если биты независимы, передается 1000 шеннонов информации.
- Энтропия определяется как H(X) = -∑p(x) log p(x).
-
Совместная энтропия
- Совместная энтропия двух случайных величин равна сумме их индивидуальных энтропий.
- Не путать с перекрестной энтропией.
-
Условная энтропия
- Условная энтропия X для Y равна средней условной энтропии по Y.
- Важно различать условную энтропию и условную неопределенность.
-
Взаимная информация
- Взаимная информация измеряет объем информации, получаемой при наблюдении за одной случайной величиной.
- Взаимная информация симметрична и может быть выражена через расхождение Кульбака-Лейблера.
-
Дивергенция Кульбака-Лейблера
- Дивергенция Кульбака-Лейблера измеряет количество дополнительных битов для сжатия данных.
- Не является истинной метрикой, но может быть интерпретирована как “ненужный сюрприз”.
-
Направленная информация
- Направленная информация измеряет информационный поток от одного случайного процесса к другому.
- Не симметрична и имеет множество применений в задачах с причинно-следственной связью.
-
Другие количества
- Энтропия Реньи, энтропия Цаллиса, дифференциальная энтропия и условная взаимная информация.
- Прагматическая информация показывает объем информации, использованной при принятии решения.
-
Теория кодирования
- Теория кодирования включает сжатие данных и исправление ошибок.
- Сжатие данных устраняет избыточность, исправление ошибок добавляет избыточность для передачи данных.
-
Теория источника
- Источник без памяти генерирует независимые одинаково распределенные символы.
- Эргодичность и стационарность накладывают менее жесткие ограничения.
-
Скорость передачи информации
- Скорость передачи информации определяется как средняя энтропия на символ.
- Для стационарных источников скорость равна условной энтропии символа.
- Для нестационарных процессов скорость равна пределу совместной энтропии для каждого символа.
-
Скорость работы источника информации
- Скорость работы источника информации связана с его избыточностью и сжатием.
- Кодирование источника является предметом теории информации.
-
Пропускная способность канала
- Коммуникация по каналу является основной мотивацией теории информации.
- Каналы часто не могут точно воспроизвести сигнал из-за шума и искажений.
- Пропускная способность канала определяется взаимной информацией.
-
Канальное кодирование
- Канальное кодирование связано с поиском почти оптимальных кодов для передачи данных по зашумленному каналу.
- Пропускная способность конкретных моделей каналов, таких как двоичный симметричный канал и двоичный канал стирания, определяется различными функциями энтропии.
-
Каналы с памятью и направленной информацией
- Каналы с памятью определяются условной вероятностью.
- Пропускная способность определяется скоростью передачи взаимной информации при отсутствии обратной связи и направленной информации при наличии обратной связи.
-
Взаимозаменяемая информация
- Взаимозаменяемая информация не зависит от средств кодирования.
- Классические теоретики информации и специалисты по информатике занимаются такой информацией.
-
Применение в других областях
- Теория информации применима к криптографии и криптоанализу.
- Генераторы псевдослучайных чисел используются в криптографии, но требуют внешних случайных данных.
- Сейсморазведка использует теорию информации для улучшения разрешения и четкости изображения.
- Семиотика использует концепции теории информации для объяснения идеологии.
- Интегрированная организация процессов обработки нейронной информации анализируется с помощью информационно-теоретических методов.
-
Различные области применения
- Теория информации также применяется в поисках внеземного разума, черных дыр, биоинформатике и азартных играх.
-
Основные понятия теории информации
- Скрытый канал
- Сжатие данных
- Декодер
- Дифференциальная энтропия
- Взаимозаменяемая информация
- Сложность изменения информации
- Информационная энтропия
- Совместная энтропия
- Дивергенция Кульбака–Лейблера
- Взаимная информация
- Точечная взаимная информация (PMI)
- Приемник (теория информации)
- Избыточность
- Энтропия Рени
- Самоинформация
- Расстояние уникальности
- Разнообразие
- Расстояние Хэмминга
- Недоумение
-
Рекомендации и дальнейшее чтение
- Классическая работа Шеннона (1948)
- Заметки и другие форматы Р.В.Л. Хартли (1928)
- Андрей Колмогоров (1968)
- Другие журнальные статьи
- Учебники по теории информации
- Другие книги
- Внешние ссылки