М. А. Кремень психология управления курс лекций

Вид материалаКурс лекций

Содержание


Информационная емкость
Подобный материал:
1   ...   4   5   6   7   8   9   10   11   ...   24

Информационная емкость


Пусть алфавит данного множества дискретных сообщений состоит из т символов, а разрядность сообщений – из n позиций. Будем рассуждать так. Если наше множество сообщений имеем алфавит m и разрядность n=1 (т.е. каждое сообщение этого множества состоит из одной позиции), то любое наугад выбранное из него сообщение будет состоять из одного из символов алфавита /н, занимающего и ли ни ионную позицию сообщения. Очевидно, всего будет т таких однопозиционных сообщений.

Если множество имеет алфавит т и разрядность n=2, то каждое сообщение этого множества будет иметь две позиции и, следовательно, число возможных сообщений в нем будет N = mn = m2.

В общем случае, когда сообщения множества имеют алфавит т, разрядность п и вероятность появления в любой позиции « каждого из символов т алфавита одинакова, будем иметь: N = mn.

Это – число возможных сообщений в рассматриваемом множестве, определяющее информационную емкость или максимально возможное число сообщений, которые способна выдать, передать или хранить в себе система, оперирующая алфавитом из т символов и разрядностью из n позиций.

Такой системой может быть источник сообщений, канал связи или запоминающее устройство.

Пример 2.

Пусть m = 30 букв. Из них можно составить 301 = 30 однобуквенных слов (n = 1), 302 = 900 двухбуквенных (n = 2), 303 = 27000 трехбуквенных (n = 3), 304 = 81000 четырехбуквенных (n = 4) и т.д. Между тем в действительности язык содержит примерно 50000 слов.

Информационную емкость принято, однако, оценивать логарифмом числа возможных сообщений: Q = log2N log2mn = nlog2m.

Применение логарифмической меры для измерения объемов информации и других измерений количеств информации оправдано тем, что она обладает рядом преимуществ, делающих удобными математические расчеты, в частности, математическим свойством аддитивности, благодаря которому, например, объемы информации различных источников сообщений могут суммироваться.

Так, если мы имеем два источника сообщений с емкостями Q1 = n1log2m1 и Q2 = n2log2m2, то при этом общий объем информации Q = Q1 + Q2 = n1log2m1 + n2log2m2

Пример 3.

Вычислим информационную емкость обыкновенного чистого листа бумаги, предназначенного для напечатания текста на научную тему. Будем считать, что с учетом пробелов между словами на таком листе помешается 2000 знаков. Следовательно, разрядность n = 2000 позиций. Далее, пусть алфавит текста включает: русский алфавит m1 =32, латинский алфавит т2=21, знаки препинания m3=12, цифры т4=10, арифметические знаки ms=5. Отсюда находим «научный» алфавит: т= m1 + m2 + m3 + m4 + m5 =32 + 27 + 12 + 10 + + 5 = 86 символов.

Информационная емкость нашего листа Q = nlog2m = 2000 Iog286= 20006,5 = 13000 дв. ед.

Информационная емкость показывает, какое предельное количество информации может хранить, выдать или передать система, если она обладает конкретным алфавитом в т символов и разрядностью в n позиций.

Энтропия


Понятие «энтропия» введено в 1865г. Р.Клауэиусом. Статистическая физика рассматривает энтропию как меру вероятности пребывания системы в данном состоянии. Этим понятием широко пользуются в физике, химии, биологии и теории информации.

Энтропия (неопределенность) события, явления, процесса в полной мере существует только до получения сообщения или в общем случае – до проведения опыта. После получения сообщения (выполнения опыта) она исчезает или уменьшается, так как уже имеется определенная информация.

Если принять, что до получения информации существовала энтропия Н', а после получения информации она уменьшилась до величины Н", то количество полученной информации будет: Н = Н' – Н".

Если в результате получения информации полностью устранена неопределенность, то Н = Н', т.е. количество информации и в этом случае численно равно энтропии, имевшей место до получении информации. Чем в большей степени устранена неопределенность, тем больше полученная информация. Количественное равенство информации и первоначальной энтропии, конечно, не означает тождественности этих понятий. Более того, они противоположны друг другу, ведь информация равна ycтраненной энтропии.

Понятие энтропии применимо не только к сообщениям, но и к их источникам. Так, если источником сообщений является книга, на каждой странице которой повторяются одни и те же, уже известные, истины, то читатель получит мало информации; такая книга будет обладать низкой энтропией. Напротив, когда каждая глава, каждый параграф содержит что-то новое, книга может дать много информации читателю и, следовательно, имеет большую энтропию.