Информатизация общества. Информация

Вид материалаДокументы

Содержание


Основные направления применения информатики
Информатика состоит из двух частей
Что такое информация?
Свойства информации
Единицы информации
Качество информации.
Измерение информации. Содержательный подход.
Алфавитный подход к измерению информации.
Вероятностный подход к измерению информации.
Подобный материал:
Информатизация общества. Информация.


Информация стала важным инструментом политики и культуры, промышленности, науки и образования. Информация — это сведения об окружающем мире.


Информационный процесс — процесс, в результате которого осуществляется прием, передача (обмен), преобразование и использование информации. Средствами обработки информации чаще всего являются персональные компьютеры, которые объединяются в локальные и глобальные сети.


Информационная система — взаимосвязанная совокупность средств, методов и персонала, участвующих в обработке данных.


Компьютеры применяются практически во всех видах человеческой деятельности (промышленность, наука, медицина, образование, транспорт, банковское дело, связь, военная техника, бытовая техника и т.д.). Развивается и широко используется мировая компьютерная сеть Интернет.

Что такое информатика?


Информатика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.


Основные направления применения информатики:


pазpаботка вычислительных систем и программного обеспечения;

теория информации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;

методы искусственного интеллекта, позволяющие создавать программы для решения задач, требующих определённых интеллектуальных усилий при выполнении их человеком (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);

системный анализ, заключающийся в анализе назначения проектируемой системы и в установлении требований, которым она должна отвечать;

методы машинной графики, анимации, средства мультимедиа;

средства телекоммуникации, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;

разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

Информатика состоит из двух частей:


технические средства;

программные средства.

Технические средства - это аппаратура компьютеров.


В информатику входят еще алгоритмические средства.

Алгоритмы - это правила, предписывающие выполнение последовательности действий, приводящих к решению задачи.

Что такое информация?


Информация — от латинского слова "information", что означает сведения, разъяснения, изложение.


Информацией называют любые данные или сведения, которые кого-либо интересуют.


Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.


Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.


В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.


Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Свойства информации. Единицы измерения количества информации.


Свойства информации:


достоверность — информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел;

полнота — информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки;

точность — точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.;

ценность — ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека;

своевременность — только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка;

понятность — информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация;

доступность — информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях;

краткость — информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях;

и др.

Единицы информации

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица называется бит.


В вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.


Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).


Широко используются также ещё более крупные производные единицы информации:


• 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

• 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

• 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

Качество информации.


Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:


репрезентативность;

содержательность;

достаточность  (полнота);

доступность;

актуальность;

своевременность;

точность;

достоверность;

устойчивость.


Измерение информации. Содержательный подход.


Поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.


Информация — это знания человека. Отсюда следует вывод, что сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека.


Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица называется «бит».


Неопределённость знаний о некотором событии — это количество возможных результатов события (бросания монеты, кубика; вытаскивания жребия).


Сообщение о том, что произошло одно событие из двух равновероятных, несёт 1 бит информации.

Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления.


Количество информации i, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2i = N.


N — количество возможных событий (неопределённость знаний), i — количество информации в сообщении о том, что произошло одно из N событий.

Измерение информации. Содержательный подход.


Вопрос «как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.


Выше мы подошли к информации только с одной стороны: выяснили, чем она является для человека. Другую точку зрения на информацию, объективную, то есть не связанную с её отношением к человеку, мы обсудим несколько позже.


Итак, пока остаемся на прежней позиции: информация — это знания человека. Отсюда следует вывод, что сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра — информативное сообщение, а сообщение о вчерашней погоде неинформативно: нам это уже известно.


Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Например: 2 х 2 = 4 информативно для первоклассника, изучающего таблицу умножения, и неинформативно для старшеклассника. Отсюда, казалось бы, следует вывод, что сообщение информативно для человека, если оно содержит новые сведения, и неинформативно, если сведения старые, известные.


Но вот вы раскрыли учебник по высшей математике и прочитали там такое определение:


Значение определённого интеграла равно разности значений первообразной подынтегральной функции на верхнем и на нижнем пределах.


Пополнил этот текст ваши знания? Скорее всего, нет! Он вам непонятен, а поэтому – неинформативен. Быть понятным, значит быть логически связанным с предыдущими знаниями человека. Для того, чтобы понять данное определение, нужно изучить элементарную математику и знать начала высшей.


Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести информацию для человека.


Сообщение несёт информацию для человека, если содержащиеся в нём сведения являются для него новыми и понятными.


Неопределённость знаний и единица информации


Пока мы с вами научились различать лишь две ситуации: «нет информации» — «есть информация», то есть количество информации равно нулю или не равно нулю. Но, очевидно, для измерения, тогда мы сможем определять, в каком сообщении информации больше, в каком — меньше.


Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица называется «бит». Её определение звучит так:


Сообщение, уменьшающее неопределённость знаний в два раза, несёт 1 бит информации.


В этом определении есть понятия, которые требуют пояснения.


Что такое «неопределённость знаний»? Лучше всего это объяснить на примерах. Допустим, вы бросаете монету, загадывая, что выпадет: орёл или решка? Есть всего два варианта возможного результата бросания монеты. Причём, ни один из этих вариантов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны.


В этом случае перед подбрасыванием монеты неопределённость знаний о результате равна двум.

Игральный кубик с шестью гранями может с равной вероятностью упасть на любую из них. Значит, неопределённость знаний о результате бросания кубика равна шести.


Ещё пример: спортсмены-лыжники перед забегом путём жеребьёвки определяют свой порядковый номер на старте. Допустим неопределённость знаний спортсменом своего номера до жеребьёвки равна ста.


Следовательно, можно сказать так: неопределённость знаний о некотором событии — это количество возможных результатов события (бросания монеты, кубика; вытаскивания жребия).


Вернёмся к примеру с монетой. После того, как вы бросили монету и посмотрели на неё, вы получили зрительное сообщение, что выпал, например, орёл. Произошла одно из двух возможных событий. Неопределённость знаний уменьшилась в два раза: было два варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации


Сообщение о том, что произошло одно событие из двух равновероятных, несёт 1 бит информации.


А теперь такая задача: студент на экзамене может получить одну из четырёх оценок: «5» — «отлично», «4» — «хорошо», «3» — «удовлетворительно», «2» — неудовлетворительно». Представьте себе, что ваш товарищ пошёл сдавать экзамен. Причём, учится он очень неровно и может с одинаковой вероятностью получить любую оценку от «2» до «5». Вы волнуетесь за него, ждёте результата экзамена. Наконец, он пришёл и на ваш вопрос: «Ну, что получил? — ответил: «Четвёрку!».


Вопрос. Сколько бит информации содержится в его ответе?


Если сразу сложно ответить на этот вопрос, то давайте подойдём к ответу постепенно. Будем отгадывать оценку, задавая вопросы, на которые можно ответить только «да» или «нет».


Вопросы будем ставить так, чтобы каждый ответ уменьшал количество вариантов в два раза и, следовательно, приносил 1 бит информации.


Первый вопрос:


Оценка выше тройки?

Да!

После этого ответа число вариантов уменьшилось в два раза. Остались только «4» и «5». Получен 1 бит информации.


Второй вопрос:


Ты получил пятёрку?

Нет!

Выбран один вариант из двух оставшихся: оценка – «четвёрка». Получен еще 1 бит информации. В сумме имеем 2 бита. Сообщение о том, что произошло одно из четырёх равновероятных событий несёт 2 бита информации.


Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления.


Решим ещё одну частную задачу, применив этот метод, а потом выведем общее правило.


На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?


Задаём вопросы:


Книга лежит выше четвёртой полки?

Нет.

Книга лежит ниже третьей полки?

Да.

Книга – на второй полке?

Нет.

Ну теперь всё ясно! Книга лежит на первой полке!

Каждый ответ уменьшал неопределённость в два раза. Всего было задано три вопроса. Значит набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.


А сейчас попробуем получить формулу, по которой вычисляется количество информации, содержащейся в сообщении о том, что произошло одно из множества равновероятных событий.


Обозначим буквой N количество возможных событий, или, как мы это ещё называли, - неопределённость знаний. Буквой i будем обозначать количество информации в сообщении о том, что произошло одно из N событий.


В примере с монетой N = 2, i = 1.

В примере с оценками N = 4, i = 2.

В примере со стеллажом N = 8, i = 3.


Нетрудно заметить, что связь между этими величинами выражается формулой:


2i = N


Действительно: 21 = 2; 22 = 4; 23 = 8.


Если величина N известна, а i – неизвестно, то формула становится показательным уравнением для определения i.

Например, пусть на стеллаже не 8, а 16 полок. Чтобы ответить на вопрос, сколько информации содержится в сообщении о том, где лежит книга, нужно решить уравнение:

2i = 16.


Поскольку 16 = 24, то i = 4.


Количество информации i, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2i = N.


Если значение N равно целой степени числа 2 (4, 8,16, 32, 64 и т.д.), то такое уравнение решается просто: i будет целым числом.


А чему равно количество информации в сообщении о результате бросания игральной кости, у которой имеется шесть граней и, следовательно, N = 6?


Решение уравнения


2i = 6


будет дробным числом, лежащим между числами 2 и 3, поскольку 22 = 4, а 23 = 8. С точностью до пяти знаков после запятой решение такое: 2,58496.

Алфавитный подход к измерению информации.


Способ, не связывающий количество информации с содержанием сообщения, называется алфавитным подходом.


Проще всего разобраться в этом на примере текста, написанного на каком-нибудь языке. Для нас удобнее, чтобы это был русский язык.


Всё множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел (промежуток между словами).


Полное число символов алфавита принято называть мощностью алфавита. Будем обозначать эту величину буквой N. Например, мощность алфавита из русских букв и дополнительных символов равна 54.


Представьте себе, что текст к вам поступает последовательно, по одному знаку, словно бумажная ленточка, выползающая из телеграфного аппарата. Предположим, что каждый появляющийся на ленте символ с одинаковой вероятностью может быть любым символом алфавита. В действительности это не совсем так, но для упрощения примем такое предположение.


В каждой очередной позиции текста может появиться любой из N символов. Каждый символ несёт i бит информации; число i можно определить из уравнения:


2i = N.


Для N – 54, используя таблицу, получаем:


i = 5,755 бит.


Вот сколько информации несёт один символ в русском тексте! А теперь для того, чтобы найти количество информации во всём тексте, нужно посчитать число символов в нём и умножить на i.


Возьмём с книжной полки какую-нибудь книгу и посчитаем количество информации на одной её странице. Пусть страница содержит 50 строк. В каждой строке – 60 символов. Значит, на странице умещается 50х60 = 17265 бит.


Следовательно, при алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объёма текста (то есть от числа знаков в тексте) и от мощности алфавита.


Отсюда следует, например, что нельзя сравнивать информационные объёмы текстов, написанных на разных языках, только по объёму. У них отличаются информационные веса одного символа так как мощности алфавитов разных языков – различные.


Но если книги написаны на одном языке, то понятно, что в толстой книге информации больше, чем в тонкой. При этом содержательная сторона книги в расчёт не берётся.


Сформулируем правило, как измерить информацию, используя для этого алфавитный подход.


Количество информации, содержащееся в символьном сообщении, равно К х i, где К – число символов в тексте сообщения а i – информационный вес символа, который находится из уравнения 2i = N, где N – мощность используемого алфавита.


Применение алфавитного подхода удобно, прежде всего, при использовании технических средств работы с информацией. В этом случае теряют смысл понятия «новые – старые», «понятные – непонятные» сведения. Алфавитный подход является объективным способом измерения информации в отличие от субъективного, содержательного, подхода.


Вероятностный подход к измерению информации.


Основополагающая роль в вероятностном подходе принадлежит энтропии множества вероятностей, формула которой была получена в 1948 году американским исследователем К. Шенноном. Предлагая для измерения количества информации свою знаменитую энтропийную меру, К. Шеннон руководствовался следующими соображениями.


Вероятность p – количественная априорная (т.е. известная до проведения опыта) характеристика одного из исходов (событий) некоторого опыта. Измеряется в пределах от 0 до 1. Если заранее известны все исходы опыта, сумма их вероятностей равна 1, а сами исходы составляют полную группу событий. Если все исходы могут свершиться с одинаковой долей вероятности, они называются равновероятными.


Например, пусть опыт состоит в сдаче студентом экзамена по информатике. Очевидно, у этого опыта всего 4 исхода (по количеству возможных оценок, которые студент может получить на экзамене). Тогда эти исходы составляют полную группу событий, т.е. сумма их вероятностей равна 1. Если студент учился хорошо в течение семестра, значения вероятностей всех исходов могут быть такими: p(5) = 0.5; p(4) = 0.3; p(3) = 0.1; p(2) = 0.1, где запись p(j) означает вероятность исхода, когда получена оценка j (j = {2, 3, 4, 5}).


Если студент учился плохо, можно заранее оценить возможные исходы сдачи экзамена, т.е. задать вероятности исходов, например, следующим образом:


p(5) = 0.1; p(4) = 0.2; p(3) = 0.4; p(2) = 0.3.


В обоих случаях выполняется условие:


где n – число исходов опыта,


i – номер одного из исходов.


Пусть можно получить n сообщений по результатам некоторого опыта (т.е. у опыта есть n исходов), причем известны вероятности получения каждого сообщения (исхода) - p i . Тогда в соответствии с идеей Шеннона, количество информации I в сообщении i определяется по формуле:


где p i – вероятность i -го сообщения (исхода).


Пример 1. Определить количество информации, содержащейся в сообщении о результате сдачи экзамена для студента-хорошиста.


Пусть I(j) – количество информации в сообщении о получении оценки j. В соответствии с формулой Шеннона имеем:


I(5) = -log2 0,5 = 1,


I(4) = -log2 0,3 = 1,74,


I(3) = -log2 0,1 = 3,32,


I(2) = -log2 0,1 = 3,32.


Пример 2. Определить количество информации, содержащейся в сообщении о результате сдачи экзамена для нерадивого студента:


I(5) = -log2 0,1 = 3,32,


I(4) = -log2 0,2 = 2,32,


I(3) = -log2 0,4 = 1,32,


I(2) = -log2 0,3 = 1,74.


Таким образом, количество получаемой с сообщением информации тем больше, чем неожиданнее данное сообщение. Этот тезис использован при эффективном кодировании кодами переменной длины (т.е. имеющими разную геометрическую меру): исходные символы, имеющие большую частоту (или вероятность), имеют код меньшей длины, т.е. несут меньше информации в геометрической мере, и наоборот.