Коды Шеннона – Фано и Хафмана

Дипломная работа - Математика и статистика

Другие дипломы по предмету Математика и статистика

?й 3 соседний по диагонали элемент, цифрой 4 тот же, что и рассматриваемый, элемент на предшествующем кадре телевизионной передачи, цифрой 5 элемент на той же горизонтали, соседний с элементом 1, и, наконец, цифрой 6 - тот же элемент на кадре, предшествующем тому, который содержит элемент 4 (рис 1),

 

 


а) б) рис 1.

и будем указывать в обозначениях условных энтропий сверху в скобках номера элементов изображения, степень яркости которых считается известной. В таком случае значения энтропии (в битах) могут быть сведены в следующую таблицу:

 

А31,960,690,98-1,77Б31,950,360,36--В32,781,341,952,78-Г32,45--2,002,08

А0,68-0,56--Б0,35-0,270,26-В--1,221,181,19Г-1,83---

Результаты последнего опыта приводят к выводу, что для бедного деталями изображения (лицо) избыточность не меньше, чем 90%, а для изображения, богатого деталями (зрители), она не меньше, чем 60%. Причины этого расхождения пока неясны.

Для цветных телевизионных изображений информация по порядку величины сравнима с удвоенной информацией, содержащейся в соответствующем черно-белом изображении.

 

 

 

 

ЗАКЛЮЧЕНИЕ

В данной работе были поставлены следующие цели и задачи. Цель: изучить принципы кодирования информации Шеннона - Фано и Хафмана и применение их при решении задач. Задача: изучить энтропии и избыточность конкретных типов сообщений для последующего применения к ним принципов Шеннона - Фано и Хафмана.

После выполнения целей и задач дипломной работы были сделаны следующие выводы.

До появления работ Шеннона и Фано, кодирование символов алфавита при передаче сообщения по каналам связи осуществлялось одинаковым количеством бит, получаемым по формуле Хартли. С появлением этих работ начали появляться способы, кодирующие символы разным числом бит в зависимости от вероятности появления их в тексте, то есть более вероятные символы кодируются короткими кодами, а редко встречающиеся символы - длинными (длиннее среднего).

С тех пор, как Д.А.Хаффман опубликовал в 1952 году свою работу "Метод построения кодов с минимальной избыточностью", его алгоритм кодирования стал базой для огромного количества дальнейших исследований в этой области. Стоит отметить, что за 50 лет со дня опубликования, код Хаффмана ничуть не потерял своей актуальности и значимости. Так с уверенностью можно сказать, что мы сталкиваемся с ним, в той или иной форме (дело в том, что код Хаффмана редко используется отдельно, чаще работая в связке с другими алгоритмами), практически каждый раз, когда архивируем файлы, смотрим фотографии, фильмы, посылаем факс или слушаем музыку.

Преимуществами данных методов являются их очевидная простота реализации и, как следствие этого, высокая скорость кодирования и декодирования. Основным недостатком является их неоптимальность в общем случае.