Информатизация общества. Информация
Вид материала | Документы |
- Раскройте смысл ключевых понятий главы: информатизация общества, информация, бит, информационные, 84.34kb.
- Лекция 17. Модуль «Социальная информатика», 25.19kb.
- Билет Информатизация общества. Основные этапы развития вычислительной техники. Информатизация, 184.79kb.
- Одно из приоритетных направлений современного общества информатизация образования,, 92.07kb.
- Информационное письмо, 60.7kb.
- 1. Информатизация общества, 653.68kb.
- 1. Информация и ее свойства, 147.19kb.
- Информатизационные системы в экономике информатизация в экономике, 764.69kb.
- Информационное сообщение, 49.82kb.
- Проект: " Школьная библиотека в развитом информационном пространстве", 161.36kb.
Информатизация общества. Информация.
Информация стала важным инструментом политики и культуры, промышленности, науки и образования. Информация — это сведения об окружающем мире.
Информационный процесс — процесс, в результате которого осуществляется прием, передача (обмен), преобразование и использование информации. Средствами обработки информации чаще всего являются персональные компьютеры, которые объединяются в локальные и глобальные сети.
Информационная система — взаимосвязанная совокупность средств, методов и персонала, участвующих в обработке данных.
Компьютеры применяются практически во всех видах человеческой деятельности (промышленность, наука, медицина, образование, транспорт, банковское дело, связь, военная техника, бытовая техника и т.д.). Развивается и широко используется мировая компьютерная сеть Интернет.
Что такое информатика?
Информатика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.
Основные направления применения информатики:
pазpаботка вычислительных систем и программного обеспечения;
теория информации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;
методы искусственного интеллекта, позволяющие создавать программы для решения задач, требующих определённых интеллектуальных усилий при выполнении их человеком (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);
системный анализ, заключающийся в анализе назначения проектируемой системы и в установлении требований, которым она должна отвечать;
методы машинной графики, анимации, средства мультимедиа;
средства телекоммуникации, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;
разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.
Информатика состоит из двух частей:
технические средства;
программные средства.
Технические средства - это аппаратура компьютеров.
В информатику входят еще алгоритмические средства.
Алгоритмы - это правила, предписывающие выполнение последовательности действий, приводящих к решению задачи.
Что такое информация?
Информация — от латинского слова "information", что означает сведения, разъяснения, изложение.
Информацией называют любые данные или сведения, которые кого-либо интересуют.
Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.
Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.
В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.
Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.
Свойства информации. Единицы измерения количества информации.
Свойства информации:
достоверность — информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел;
полнота — информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки;
точность — точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.;
ценность — ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека;
своевременность — только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка;
понятность — информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация;
доступность — информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях;
краткость — информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях;
и др.
Единицы информации
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица называется бит.
В вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Широко используются также ещё более крупные производные единицы информации:
• 1 Килобайт (Кбайт) = 1024 байт = 210 байт,
• 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
• 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
Качество информации.
Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:
репрезентативность;
содержательность;
достаточность (полнота);
доступность;
актуальность;
своевременность;
точность;
достоверность;
устойчивость.
Измерение информации. Содержательный подход.
Поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.
Информация — это знания человека. Отсюда следует вывод, что сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека.
Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица называется «бит».
Неопределённость знаний о некотором событии — это количество возможных результатов события (бросания монеты, кубика; вытаскивания жребия).
Сообщение о том, что произошло одно событие из двух равновероятных, несёт 1 бит информации.
Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления.
Количество информации i, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2i = N.
N — количество возможных событий (неопределённость знаний), i — количество информации в сообщении о том, что произошло одно из N событий.
Измерение информации. Содержательный подход.
Вопрос «как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.
Выше мы подошли к информации только с одной стороны: выяснили, чем она является для человека. Другую точку зрения на информацию, объективную, то есть не связанную с её отношением к человеку, мы обсудим несколько позже.
Итак, пока остаемся на прежней позиции: информация — это знания человека. Отсюда следует вывод, что сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра — информативное сообщение, а сообщение о вчерашней погоде неинформативно: нам это уже известно.
Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Например: 2 х 2 = 4 информативно для первоклассника, изучающего таблицу умножения, и неинформативно для старшеклассника. Отсюда, казалось бы, следует вывод, что сообщение информативно для человека, если оно содержит новые сведения, и неинформативно, если сведения старые, известные.
Но вот вы раскрыли учебник по высшей математике и прочитали там такое определение:
Значение определённого интеграла равно разности значений первообразной подынтегральной функции на верхнем и на нижнем пределах.
Пополнил этот текст ваши знания? Скорее всего, нет! Он вам непонятен, а поэтому – неинформативен. Быть понятным, значит быть логически связанным с предыдущими знаниями человека. Для того, чтобы понять данное определение, нужно изучить элементарную математику и знать начала высшей.
Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести информацию для человека.
Сообщение несёт информацию для человека, если содержащиеся в нём сведения являются для него новыми и понятными.
Неопределённость знаний и единица информации
Пока мы с вами научились различать лишь две ситуации: «нет информации» — «есть информация», то есть количество информации равно нулю или не равно нулю. Но, очевидно, для измерения, тогда мы сможем определять, в каком сообщении информации больше, в каком — меньше.
Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица называется «бит». Её определение звучит так:
Сообщение, уменьшающее неопределённость знаний в два раза, несёт 1 бит информации.
В этом определении есть понятия, которые требуют пояснения.
Что такое «неопределённость знаний»? Лучше всего это объяснить на примерах. Допустим, вы бросаете монету, загадывая, что выпадет: орёл или решка? Есть всего два варианта возможного результата бросания монеты. Причём, ни один из этих вариантов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны.
В этом случае перед подбрасыванием монеты неопределённость знаний о результате равна двум.
Игральный кубик с шестью гранями может с равной вероятностью упасть на любую из них. Значит, неопределённость знаний о результате бросания кубика равна шести.
Ещё пример: спортсмены-лыжники перед забегом путём жеребьёвки определяют свой порядковый номер на старте. Допустим неопределённость знаний спортсменом своего номера до жеребьёвки равна ста.
Следовательно, можно сказать так: неопределённость знаний о некотором событии — это количество возможных результатов события (бросания монеты, кубика; вытаскивания жребия).
Вернёмся к примеру с монетой. После того, как вы бросили монету и посмотрели на неё, вы получили зрительное сообщение, что выпал, например, орёл. Произошла одно из двух возможных событий. Неопределённость знаний уменьшилась в два раза: было два варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации
Сообщение о том, что произошло одно событие из двух равновероятных, несёт 1 бит информации.
А теперь такая задача: студент на экзамене может получить одну из четырёх оценок: «5» — «отлично», «4» — «хорошо», «3» — «удовлетворительно», «2» — неудовлетворительно». Представьте себе, что ваш товарищ пошёл сдавать экзамен. Причём, учится он очень неровно и может с одинаковой вероятностью получить любую оценку от «2» до «5». Вы волнуетесь за него, ждёте результата экзамена. Наконец, он пришёл и на ваш вопрос: «Ну, что получил? — ответил: «Четвёрку!».
Вопрос. Сколько бит информации содержится в его ответе?
Если сразу сложно ответить на этот вопрос, то давайте подойдём к ответу постепенно. Будем отгадывать оценку, задавая вопросы, на которые можно ответить только «да» или «нет».
Вопросы будем ставить так, чтобы каждый ответ уменьшал количество вариантов в два раза и, следовательно, приносил 1 бит информации.
Первый вопрос:
Оценка выше тройки?
Да!
После этого ответа число вариантов уменьшилось в два раза. Остались только «4» и «5». Получен 1 бит информации.
Второй вопрос:
Ты получил пятёрку?
Нет!
Выбран один вариант из двух оставшихся: оценка – «четвёрка». Получен еще 1 бит информации. В сумме имеем 2 бита. Сообщение о том, что произошло одно из четырёх равновероятных событий несёт 2 бита информации.
Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления.
Решим ещё одну частную задачу, применив этот метод, а потом выведем общее правило.
На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?
Задаём вопросы:
Книга лежит выше четвёртой полки?
Нет.
Книга лежит ниже третьей полки?
Да.
Книга – на второй полке?
Нет.
Ну теперь всё ясно! Книга лежит на первой полке!
Каждый ответ уменьшал неопределённость в два раза. Всего было задано три вопроса. Значит набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.
А сейчас попробуем получить формулу, по которой вычисляется количество информации, содержащейся в сообщении о том, что произошло одно из множества равновероятных событий.
Обозначим буквой N количество возможных событий, или, как мы это ещё называли, - неопределённость знаний. Буквой i будем обозначать количество информации в сообщении о том, что произошло одно из N событий.
В примере с монетой N = 2, i = 1.
В примере с оценками N = 4, i = 2.
В примере со стеллажом N = 8, i = 3.
Нетрудно заметить, что связь между этими величинами выражается формулой:
2i = N
Действительно: 21 = 2; 22 = 4; 23 = 8.
Если величина N известна, а i – неизвестно, то формула становится показательным уравнением для определения i.
Например, пусть на стеллаже не 8, а 16 полок. Чтобы ответить на вопрос, сколько информации содержится в сообщении о том, где лежит книга, нужно решить уравнение:
2i = 16.
Поскольку 16 = 24, то i = 4.
Количество информации i, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2i = N.
Если значение N равно целой степени числа 2 (4, 8,16, 32, 64 и т.д.), то такое уравнение решается просто: i будет целым числом.
А чему равно количество информации в сообщении о результате бросания игральной кости, у которой имеется шесть граней и, следовательно, N = 6?
Решение уравнения
2i = 6
будет дробным числом, лежащим между числами 2 и 3, поскольку 22 = 4, а 23 = 8. С точностью до пяти знаков после запятой решение такое: 2,58496.
Алфавитный подход к измерению информации.
Способ, не связывающий количество информации с содержанием сообщения, называется алфавитным подходом.
Проще всего разобраться в этом на примере текста, написанного на каком-нибудь языке. Для нас удобнее, чтобы это был русский язык.
Всё множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел (промежуток между словами).
Полное число символов алфавита принято называть мощностью алфавита. Будем обозначать эту величину буквой N. Например, мощность алфавита из русских букв и дополнительных символов равна 54.
Представьте себе, что текст к вам поступает последовательно, по одному знаку, словно бумажная ленточка, выползающая из телеграфного аппарата. Предположим, что каждый появляющийся на ленте символ с одинаковой вероятностью может быть любым символом алфавита. В действительности это не совсем так, но для упрощения примем такое предположение.
В каждой очередной позиции текста может появиться любой из N символов. Каждый символ несёт i бит информации; число i можно определить из уравнения:
2i = N.
Для N – 54, используя таблицу, получаем:
i = 5,755 бит.
Вот сколько информации несёт один символ в русском тексте! А теперь для того, чтобы найти количество информации во всём тексте, нужно посчитать число символов в нём и умножить на i.
Возьмём с книжной полки какую-нибудь книгу и посчитаем количество информации на одной её странице. Пусть страница содержит 50 строк. В каждой строке – 60 символов. Значит, на странице умещается 50х60 = 17265 бит.
Следовательно, при алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объёма текста (то есть от числа знаков в тексте) и от мощности алфавита.
Отсюда следует, например, что нельзя сравнивать информационные объёмы текстов, написанных на разных языках, только по объёму. У них отличаются информационные веса одного символа так как мощности алфавитов разных языков – различные.
Но если книги написаны на одном языке, то понятно, что в толстой книге информации больше, чем в тонкой. При этом содержательная сторона книги в расчёт не берётся.
Сформулируем правило, как измерить информацию, используя для этого алфавитный подход.
Количество информации, содержащееся в символьном сообщении, равно К х i, где К – число символов в тексте сообщения а i – информационный вес символа, который находится из уравнения 2i = N, где N – мощность используемого алфавита.
Применение алфавитного подхода удобно, прежде всего, при использовании технических средств работы с информацией. В этом случае теряют смысл понятия «новые – старые», «понятные – непонятные» сведения. Алфавитный подход является объективным способом измерения информации в отличие от субъективного, содержательного, подхода.
Вероятностный подход к измерению информации.
Основополагающая роль в вероятностном подходе принадлежит энтропии множества вероятностей, формула которой была получена в 1948 году американским исследователем К. Шенноном. Предлагая для измерения количества информации свою знаменитую энтропийную меру, К. Шеннон руководствовался следующими соображениями.
Вероятность p – количественная априорная (т.е. известная до проведения опыта) характеристика одного из исходов (событий) некоторого опыта. Измеряется в пределах от 0 до 1. Если заранее известны все исходы опыта, сумма их вероятностей равна 1, а сами исходы составляют полную группу событий. Если все исходы могут свершиться с одинаковой долей вероятности, они называются равновероятными.
Например, пусть опыт состоит в сдаче студентом экзамена по информатике. Очевидно, у этого опыта всего 4 исхода (по количеству возможных оценок, которые студент может получить на экзамене). Тогда эти исходы составляют полную группу событий, т.е. сумма их вероятностей равна 1. Если студент учился хорошо в течение семестра, значения вероятностей всех исходов могут быть такими: p(5) = 0.5; p(4) = 0.3; p(3) = 0.1; p(2) = 0.1, где запись p(j) означает вероятность исхода, когда получена оценка j (j = {2, 3, 4, 5}).
Если студент учился плохо, можно заранее оценить возможные исходы сдачи экзамена, т.е. задать вероятности исходов, например, следующим образом:
p(5) = 0.1; p(4) = 0.2; p(3) = 0.4; p(2) = 0.3.
В обоих случаях выполняется условие:
где n – число исходов опыта,
i – номер одного из исходов.
Пусть можно получить n сообщений по результатам некоторого опыта (т.е. у опыта есть n исходов), причем известны вероятности получения каждого сообщения (исхода) - p i . Тогда в соответствии с идеей Шеннона, количество информации I в сообщении i определяется по формуле:
где p i – вероятность i -го сообщения (исхода).
Пример 1. Определить количество информации, содержащейся в сообщении о результате сдачи экзамена для студента-хорошиста.
Пусть I(j) – количество информации в сообщении о получении оценки j. В соответствии с формулой Шеннона имеем:
I(5) = -log2 0,5 = 1,
I(4) = -log2 0,3 = 1,74,
I(3) = -log2 0,1 = 3,32,
I(2) = -log2 0,1 = 3,32.
Пример 2. Определить количество информации, содержащейся в сообщении о результате сдачи экзамена для нерадивого студента:
I(5) = -log2 0,1 = 3,32,
I(4) = -log2 0,2 = 2,32,
I(3) = -log2 0,4 = 1,32,
I(2) = -log2 0,3 = 1,74.
Таким образом, количество получаемой с сообщением информации тем больше, чем неожиданнее данное сообщение. Этот тезис использован при эффективном кодировании кодами переменной длины (т.е. имеющими разную геометрическую меру): исходные символы, имеющие большую частоту (или вероятность), имеют код меньшей длины, т.е. несут меньше информации в геометрической мере, и наоборот.