Основы теории информации и криптографии
Вид материала | Учебное пособие |
СодержаниеСпособы измерения информации Вероятностный подход к измерению дискретной и непрерывной информации |
- «Основы криптографической защиты информации», 173.19kb.
- О спектральных свойствах дискретного преобразования фурье, 34.99kb.
- Задача надежной защиты информации от несанкционированного доступа является одной, 269.92kb.
- Методические указания по изучению теоретической части Чебоксары 2009, 330.7kb.
- Программа дисциплины теоретические основы информатики (дпп. Ф. 08) для специальности, 125.07kb.
- Рабочей программы учебной дисциплины (модуля) Основы математической обработки информации, 44.43kb.
- Темы курсовых работ по дисциплине «Криптографические методы защиты информации», 14.86kb.
- Примерная программа наименование дисциплины: «Теоретико-числовые методы в криптографии», 222.72kb.
- «Основы обработки графической информации с помощью пк. Графический редактор Paint», 95.66kb.
- Учебная программа по дисциплине криптографические методы защиты информации федосеев, 33.76kb.
Способы измерения информации
Понятие количества информации естественно возникает, например, в следующих типовых случаях:
- Равенство вещественных переменных
, заключает в себе информацию о том, что
равно
. Про равенство
можно сказать, что оно несет меньшую информацию, чем первое, т.к. из первого следует второе, но не наоборот. Равенство
несет в себе информацию по объему такую же, как и первое;
- Пусть происходят некоторые измерения с некоторой погрешностью. Тогда чем больше будет проведено измерений, тем больше информации об измеряемой сущности будет получено;
- Математическое ожидание некоторой случайной величины, содержит в себе информацию о самой случайной величине, Для случайной величины, распределенной по нормальному закону, с известной дисперсией знание математического ожидания дает полную информацию о случайной величине;
- Рассмотрим схему передачи информации. Пусть передатчик описывается случайной величиной,
, тогда из-за помех в канале связи на приемник будет приходить случайная величина,
, где
- это случайная величина, описывающая помехи. В этой схеме можно говорить о количестве информации, содержащейся в случайной величине,
, относительно
. Чем ниже уровень помех (дисперсия
мала), тем больше информации можно получить из
. При отсутствии помех
содержит в себе всю информацию об
.
В 1865 г. немецкий физик Рудольф Клаузиус ввел в статистическую физику понятие энтропии или меры уравновешенности системы.
В 1921 г. основатель большей части математической статистики, англичанин Роналд Фишер впервые ввел термин "информация" в математику, но полученные им формулы носят очень специальный характер.
В 1948 г. Клод Шеннон в своих работах по теории связи выписывает формулы для вычисления количества информация и энтропии. Термин энтропия используется Шенноном по совету патриарха компьютерной эры фон Неймана, отметившего, что полученные Шенноном для теории связи формулы для ее расчета совпали с соответствующими формулами статистической физики, а также то, что "точно никто не знает" что же такое энтропия.
Упражнение 4 Какое из соотношений несет в себе больше информации


^
Вероятностный подход к измерению дискретной и непрерывной информации
В основе теории информации лежит предложенный Шенноном способ измерения количества информации, содержащейся в одной случайной величине, относительно другой случайной величины, Этот способ приводит к выражению количества информации числом.
Для дискретных случайных величи








Для непрерывных случайных величин,






Очевидно, что

и, следовательно,

Энтропия дискретной случайной величины


Свойства меры информации и энтропии:
,
и
независимы;
;
- константа;
, где
;
. Если
, то
- функция от
. Если
- инъективная функцияссылка скрыта от
, то
.
- Логарифмированием из очевидного для всех
неравенства
(равенство устанавливается только при
) получается неравенство
или


т.е.










- Следует из симметричности формул относительно аргументов;
- Если
, то все члены суммы, определяющей
, должны быть нули, что возможно тогда и только тогда, когда
- константа;
- Из четырех очевидных соотношений



получается

- Нужно доказать
или
.

но

Если








При независимости случайных величин,



Рассмотрим пример измерения количества информации при подбрасывании двух игральных костей.
Пусть заданы дискретное случайные величины









Законы распределения вероятностей для дискретной случайной величины



Закон распределения вероятностей для дискретной случайной величины


вследствие того, что



будет

Таблицы, определяющие



Закон совместного распределения вероятностей дискретной случайной величины



например,




Тогда












Здесь

Подчеркнутый член








Расчеты можно проводить, используя 4-е свойство информации, через энтропию.


Расчет количества информации с использованием 4-го свойства, а не определения, обычно требует меньше вычислений.
Рассмотрим более простой пример. Пусть дискретная случайная величина




Составим законы распределения вероятностей дискретной случайной величины



Таким образом, при




Составим также закон совместного распределения вероятностей этих дискретных случайных величин

Таким образом,



Точное количество выпавших очков дает точную информацию о четности, т.е. 1бит. Из








Расчеты через энтропию будут следующими


Упражнение 5 Найти энтропию дискретной случайной величины


Упражнение 6 Значения дискретной случайной величины





Упражнение 7 Сколько информации об








Упражнение 8 Дискретные случайные величины






Упражнение 9 Дискретные случайные величины







Упражнение 10 Подсчитать сколько информации об





Упражнение 11 Дискретная случайная величина











Упражнение 12 Найти энтропии дискретных случайных величин








3. Лекция: Смысл энтропии Шеннона
Вводится понятие энтропии. На нескольких примерах показывается, как вычисляется энтропия дискретной случайной величины. Вводится понятие префиксного кодирования. Задачи на самостоятельную работу улучшают восприятие материала. Также много различных математических исследований
Энтропия д.с.в. - это минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной д.с.в.
Рассмотрим пример (скачки). В заезде участвуют 4 лошади с равными шансами на победу, т.е. вероятность победы каждой лошади равна 1/4. Введем д.с.в.












Пусть теперь д.с.в.


т.е. лошадь с номером 1 - это фаворит. Тогда

Закодируем номера лошадей: 1-0, 2-10, 3-110, 4-111, - т.е. так, чтобы каждой код не был префиксом другого кода (подобное кодирование называют префиксным). В среднем в 16 заездах 1-я лошадь должна победить в 12 из них, 2-я - в 2-х, 3-я - в 1-м и 4-я - в 1-м. Таким образом, средняя длина сообщения о победителе равна







Итак,

Можно доказать, что более эффективного кодирования для двух рассмотренных случаев не существует.
То, что энтропия Шеннона соответствует интуитивному представлению о мере информации, может быть продемонстрировано в опыте по определению среднего времени психических реакций. Опыт заключается в том, что перед испытуемым человеком зажигается одна из






Упражнение 13 Найти энтропию д.с.в.


Упражнение 14 д.с.в.



Упражнение 15 д.с.в.




Упражнение 16 Про д.с.в.


