Основы теории информации и криптографии
| Вид материала | Учебное пособие | 
| СодержаниеСпособы измерения информации Вероятностный подход к измерению дискретной и непрерывной информации | 
- «Основы криптографической защиты информации», 173.19kb.
- О спектральных свойствах дискретного преобразования фурье, 34.99kb.
- Задача надежной защиты информации от несанкционированного доступа является одной, 269.92kb.
- Методические указания по изучению теоретической части Чебоксары 2009, 330.7kb.
- Программа дисциплины теоретические основы информатики (дпп. Ф. 08) для специальности, 125.07kb.
- Рабочей программы учебной дисциплины (модуля) Основы математической обработки информации, 44.43kb.
- Темы курсовых работ по дисциплине «Криптографические методы защиты информации», 14.86kb.
- Примерная программа наименование дисциплины: «Теоретико-числовые методы в криптографии», 222.72kb.
- «Основы обработки графической информации с помощью пк. Графический редактор Paint», 95.66kb.
- Учебная программа по дисциплине криптографические методы защиты информации федосеев, 33.76kb.
Способы измерения информации
Понятие количества информации естественно возникает, например, в следующих типовых случаях:
- Равенство вещественных переменных  , заключает в себе информацию о том, что , заключает в себе информацию о том, что равно равно . Про равенство . Про равенство можно сказать, что оно несет меньшую информацию, чем первое, т.к. из первого следует второе, но не наоборот. Равенство можно сказать, что оно несет меньшую информацию, чем первое, т.к. из первого следует второе, но не наоборот. Равенство несет в себе информацию по объему такую же, как и первое; несет в себе информацию по объему такую же, как и первое;
 
- Пусть происходят некоторые измерения с некоторой погрешностью. Тогда чем больше будет проведено измерений, тем больше информации об измеряемой сущности будет получено;
 
- Математическое ожидание некоторой случайной величины, содержит в себе информацию о самой случайной величине, Для случайной величины, распределенной по нормальному закону, с известной дисперсией знание математического ожидания дает полную информацию о случайной величине;
 
- Рассмотрим схему передачи информации. Пусть передатчик описывается случайной величиной,  , тогда из-за помех в канале связи на приемник будет приходить случайная величина, , тогда из-за помех в канале связи на приемник будет приходить случайная величина, , где , где - это случайная величина, описывающая помехи. В этой схеме можно говорить о количестве информации, содержащейся в случайной величине, - это случайная величина, описывающая помехи. В этой схеме можно говорить о количестве информации, содержащейся в случайной величине, , относительно , относительно . Чем ниже уровень помех (дисперсия . Чем ниже уровень помех (дисперсия мала), тем больше информации можно получить из мала), тем больше информации можно получить из . При отсутствии помех . При отсутствии помех содержит в себе всю информацию об содержит в себе всю информацию об . .
 
В 1865 г. немецкий физик Рудольф Клаузиус ввел в статистическую физику понятие энтропии или меры уравновешенности системы.
В 1921 г. основатель большей части математической статистики, англичанин Роналд Фишер впервые ввел термин "информация" в математику, но полученные им формулы носят очень специальный характер.
В 1948 г. Клод Шеннон в своих работах по теории связи выписывает формулы для вычисления количества информация и энтропии. Термин энтропия используется Шенноном по совету патриарха компьютерной эры фон Неймана, отметившего, что полученные Шенноном для теории связи формулы для ее расчета совпали с соответствующими формулами статистической физики, а также то, что "точно никто не знает" что же такое энтропия.
Упражнение 4 Какое из соотношений несет в себе больше информации
 или
или  ?
? ^
Вероятностный подход к измерению дискретной и непрерывной информации
В основе теории информации лежит предложенный Шенноном способ измерения количества информации, содержащейся в одной случайной величине, относительно другой случайной величины, Этот способ приводит к выражению количества информации числом.
Для дискретных случайных величи
 и
и  , заданных законами распределения
, заданных законами распределения  ,
,  и совместным распределением
и совместным распределением  , количество информации, содержащейся в
, количество информации, содержащейся в  относительно
относительно  , равно
, равно 
Для непрерывных случайных величин,
 и
и  , заданных плотностями распределения вероятностей
, заданных плотностями распределения вероятностей  ,
,  и
и  , аналогичная формула имеет вид
, аналогичная формула имеет вид 
Очевидно, что

и, следовательно,

Энтропия дискретной случайной величины
 в теории информации определяется формулой
в теории информации определяется формулой 
Свойства меры информации и энтропии:
 , , и и независимы; независимы;
 
 ; ;
 
 - константа; - константа;
 
 , где , где ; ;
 
 . Если . Если , то , то - функция от - функция от . Если . Если - инъективная функцияссылка скрыта от - инъективная функцияссылка скрыта от , то , то . .
 
- Логарифмированием из очевидного для всех  неравенства неравенства (равенство устанавливается только при (равенство устанавливается только при ) получается неравенство ) получается неравенство или или 
 


т.е.
 только при
только при  для всех
для всех  и
и  , т.е. при независимости
, т.е. при независимости  и
и  . Если
. Если  и
и  независимы, то
независимы, то  и, следовательно, аргументы логарифмов равны 1 и, следовательно, сами логарифмы равны 0, что означает, что
и, следовательно, аргументы логарифмов равны 1 и, следовательно, сами логарифмы равны 0, что означает, что  ;
; - Следует из симметричности формул относительно аргументов;
 
- Если  , то все члены суммы, определяющей , то все члены суммы, определяющей , должны быть нули, что возможно тогда и только тогда, когда , должны быть нули, что возможно тогда и только тогда, когда - константа; - константа;
 
- Из четырех очевидных соотношений 
 



получается

- Нужно доказать  или или . .
 

но
 , а значит аргументы у всех логарифмов не больше 1 и, следовательно, значения логарифмов не больше 0, а это и значит, что вся сумма не больше 0.
, а значит аргументы у всех логарифмов не больше 1 и, следовательно, значения логарифмов не больше 0, а это и значит, что вся сумма не больше 0.Если
 , то для каждого
, то для каждого 
 равно либо
равно либо  , либо 0. Но из
, либо 0. Но из  следует
следует  , что возможно только в случае, когда
, что возможно только в случае, когда  - функция от
- функция от  .
.При независимости случайных величин,
 и
и  одна из них ничем не описывает другую, что и отражается в том, что для таких случайных величин,
одна из них ничем не описывает другую, что и отражается в том, что для таких случайных величин,  .
.Рассмотрим пример измерения количества информации при подбрасывании двух игральных костей.
Пусть заданы дискретное случайные величины
 ,
,  и
и  .
.  и
и  - количества очков, выпавших соответственно на 1-й и 2-й игральной кости, а
- количества очков, выпавших соответственно на 1-й и 2-й игральной кости, а  . Найти
. Найти  ,
,  ,
,  .
.Законы распределения вероятностей для дискретной случайной величины
 и
и  совпадают, т.к. кости одинаковые и без изъянов.
совпадают, т.к. кости одинаковые и без изъянов.
Закон распределения вероятностей для дискретной случайной величины
 ,
, 
вследствие того, что
 ,
,  - независимы и поэтому
- независимы и поэтому 
будет

Таблицы, определяющие
 :
:

Закон совместного распределения вероятностей дискретной случайной величины
 и
и  будет
будет 
например,

 В общем случае получится
В общем случае получится 

Тогда












Здесь
 , что соответствует свойствам информации.
, что соответствует свойствам информации.Подчеркнутый член
 в расчете
в расчете  соответствует информации о двух случаях из 36, когда
соответствует информации о двух случаях из 36, когда  и
и  , которые однозначно определяют
, которые однозначно определяют  . Шесть случаев, когда
. Шесть случаев, когда  , не несут никакой информации об
, не несут никакой информации об  , что соответствует подчеркнутому члену
, что соответствует подчеркнутому члену  .
.Расчеты можно проводить, используя 4-е свойство информации, через энтропию.


Расчет количества информации с использованием 4-го свойства, а не определения, обычно требует меньше вычислений.
Рассмотрим более простой пример. Пусть дискретная случайная величина
 равна количеству очков, выпавших на игральной кости, а дискретная случайная величина
равна количеству очков, выпавших на игральной кости, а дискретная случайная величина  равна 0, если выпавшее количество очков нечетно, и 1, если выпавшее количество очков четно. Найти
равна 0, если выпавшее количество очков нечетно, и 1, если выпавшее количество очков четно. Найти  и
и  .
.Составим законы распределения вероятностей дискретной случайной величины
 и
и  .
.
Таким образом, при

 и, соответственно, при
и, соответственно, при 
 .
.Составим также закон совместного распределения вероятностей этих дискретных случайных величин

Таким образом,



Точное количество выпавших очков дает точную информацию о четности, т.е. 1бит. Из
 бит/сим и 3-го свойства информации следует, что информация об
бит/сим и 3-го свойства информации следует, что информация об  полностью определяет
полностью определяет  , но не наоборот, т.к.
, но не наоборот, т.к.  бит/сим. Действительно,
бит/сим. Действительно,  функционально зависит от
функционально зависит от  , а
, а  от
от  функционально не зависит.
функционально не зависит.Расчеты через энтропию будут следующими


Упражнение 5 Найти энтропию дискретной случайной величины
 , заданной распределением
, заданной распределением
Упражнение 6 Значения дискретной случайной величины
 и
и  определяются подбрасыванием двух идеальных монет, а дискретная случайная величина
определяются подбрасыванием двух идеальных монет, а дискретная случайная величина  равна сумме количества "гербов", выпавших при подбрасывании этих монет. Сколько информации об
равна сумме количества "гербов", выпавших при подбрасывании этих монет. Сколько информации об  содержится в
содержится в  ?
? Упражнение 7 Сколько информации об
 содержится в дискретной случайной величине
содержится в дискретной случайной величине  , где независимые дискретные случайные величины
, где независимые дискретные случайные величины  и
и  могут с равной вероятностью принимать значение либо 0, либо 1? Найти
могут с равной вероятностью принимать значение либо 0, либо 1? Найти  и
и  . Каков характер зависимости между
. Каков характер зависимости между  и
и  ?
? Упражнение 8 Дискретные случайные величины
 ,
,  - зависимы и распределены также как и соответствующие дискретные случайные величины из предыдущей задачи. Найти
- зависимы и распределены также как и соответствующие дискретные случайные величины из предыдущей задачи. Найти  , если совместное распределение вероятностей
, если совместное распределение вероятностей  и
и  описывается законом
описывается законом 
Упражнение 9 Дискретные случайные величины
 и
и  определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. дискретная случайная величина
определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. дискретная случайная величина  равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т.е.
равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т.е.  . Вычислить
. Вычислить  ,
,  и
и  .
. Упражнение 10 Подсчитать сколько информации об
 содержится в дискретной случайной величине
содержится в дискретной случайной величине  , а также
, а также  . Дискретные случайные величины
. Дискретные случайные величины  и
и  берутся из предыдущего упражнения.
берутся из предыдущего упражнения. Упражнение 11 Дискретная случайная величина
 может принимать три значения
может принимать три значения  , 0 и 1 с равными вероятностями. Дискретная случайная величина
, 0 и 1 с равными вероятностями. Дискретная случайная величина  с равными вероятностями может принимать значения 0, 1 и 2.
с равными вероятностями может принимать значения 0, 1 и 2.  и
и  - независимы.
- независимы.  . Найти
. Найти  ,
,  ,
,  ,
,  ,
,  .
. Упражнение 12 Найти энтропии дискретных случайных величин
 ,
,  ,
,  и количество информации, содержащейся в
и количество информации, содержащейся в  относительно
относительно  .
.  и
и  - независимы и задаются распределениями
- независимы и задаются распределениями
3. Лекция: Смысл энтропии Шеннона
Вводится понятие энтропии. На нескольких примерах показывается, как вычисляется энтропия дискретной случайной величины. Вводится понятие префиксного кодирования. Задачи на самостоятельную работу улучшают восприятие материала. Также много различных математических исследований
Энтропия д.с.в. - это минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной д.с.в.
Рассмотрим пример (скачки). В заезде участвуют 4 лошади с равными шансами на победу, т.е. вероятность победы каждой лошади равна 1/4. Введем д.с.в.
 , равную номеру победившей лошади. Здесь
, равную номеру победившей лошади. Здесь  . После каждого заезда по каналам связи достаточно будет передавать два бита информации о номере победившей лошади. Кодируем номер лошади следующим образом: 1-00, 2-01, 3-10, 4-11. Если ввести функцию
. После каждого заезда по каналам связи достаточно будет передавать два бита информации о номере победившей лошади. Кодируем номер лошади следующим образом: 1-00, 2-01, 3-10, 4-11. Если ввести функцию  , которая возвращает длину сообщения, кодирующего заданное значение
, которая возвращает длину сообщения, кодирующего заданное значение  , то м. о.
, то м. о.  - это средняя длина сообщения, кодирующего
- это средняя длина сообщения, кодирующего  . Можно формально определить
. Можно формально определить  через две функции
через две функции  , где
, где  каждому значению
каждому значению  ставит в соответствие некоторый битовый код, причем, взаимно однозначно, а
ставит в соответствие некоторый битовый код, причем, взаимно однозначно, а  возвращает длину в битах для любого конкретного кода. В этом примере
возвращает длину в битах для любого конкретного кода. В этом примере  .
.Пусть теперь д.с.в.
 имеет следующее распределение
имеет следующее распределение 
т.е. лошадь с номером 1 - это фаворит. Тогда

Закодируем номера лошадей: 1-0, 2-10, 3-110, 4-111, - т.е. так, чтобы каждой код не был префиксом другого кода (подобное кодирование называют префиксным). В среднем в 16 заездах 1-я лошадь должна победить в 12 из них, 2-я - в 2-х, 3-я - в 1-м и 4-я - в 1-м. Таким образом, средняя длина сообщения о победителе равна
 бит/сим или м. о.
бит/сим или м. о.  . Действительно,
. Действительно,  сейчас задается следующим распределением вероятностей:
сейчас задается следующим распределением вероятностей:  ,
,  ,
,  . Следовательно,
. Следовательно, 
Итак,
 .
. Можно доказать, что более эффективного кодирования для двух рассмотренных случаев не существует.
То, что энтропия Шеннона соответствует интуитивному представлению о мере информации, может быть продемонстрировано в опыте по определению среднего времени психических реакций. Опыт заключается в том, что перед испытуемым человеком зажигается одна из
 лампочек, которую он должен указать. Проводится большая серия испытаний, в которых каждая лампочка зажигается с определенной вероятностью
лампочек, которую он должен указать. Проводится большая серия испытаний, в которых каждая лампочка зажигается с определенной вероятностью 
 , где
, где  - это номер лампочки. Оказывается, среднее время, необходимое для правильного ответа испытуемого, пропорционально величине энтропии
- это номер лампочки. Оказывается, среднее время, необходимое для правильного ответа испытуемого, пропорционально величине энтропии  , а не числу лампочек
, а не числу лампочек  , как можно было бы подумать. В этом опыте предполагается, что чем больше информации будет получено человеком, тем дольше будет время ее обработки и, соответственно, реакции на нее.
, как можно было бы подумать. В этом опыте предполагается, что чем больше информации будет получено человеком, тем дольше будет время ее обработки и, соответственно, реакции на нее.Упражнение 13 Найти энтропию д.с.в.
 и среднюю длину каждого из приведенных кодов для этой д.с.в.
и среднюю длину каждого из приведенных кодов для этой д.с.в. 
Упражнение 14 д.с.в.
 равна количеству "гербов", выпавших на двух идеальных монетках. Найти энтропию
равна количеству "гербов", выпавших на двух идеальных монетках. Найти энтропию  . Придумать минимальный код для
. Придумать минимальный код для  , вычислить его среднюю длину и обосновать его минимальность.
, вычислить его среднюю длину и обосновать его минимальность. Упражнение 15 д.с.в.
 задана распределением
задана распределением  ,
,  Найти энтропию этой д.с.в. Придумать минимальный код для
Найти энтропию этой д.с.в. Придумать минимальный код для  , вычислить его среднюю длину и обосновать его минимальность.
, вычислить его среднюю длину и обосновать его минимальность. Упражнение 16 Про д.с.в.
 известно, что ее значениями являются буквы кириллицы. Произведен ряд последовательных измерений
известно, что ее значениями являются буквы кириллицы. Произведен ряд последовательных измерений  , результат которых - "ТЕОРИЯИНФОРМАЦИИ". Составить на основании этого результата приблизительный закон распределения вероятностей этой д.с.в. и оценить минимальную среднюю длину кодов для
, результат которых - "ТЕОРИЯИНФОРМАЦИИ". Составить на основании этого результата приблизительный закон распределения вероятностей этой д.с.в. и оценить минимальную среднюю длину кодов для  .
. 