1 семестр Информатика, ее предмет и задачи. Основные понятия информатики. Информация и формы ее представления
Вид материала | Документы |
2. Информационный процесс. Фазы информационного процесса 3. Количество информации 3.2. Объемный способ измерения информации |
- 1. Основные понятия информатики. Определение понятия информатика. Предмет и задачи, 745.21kb.
- 1. Основные понятия информатики 2 Тема Предмет информатики, 1612.33kb.
- Вопросы к зачету по курсу лекций "Информатика" для студентов Iкурса кафедры аэту iсеместр., 18.81kb.
- Тематический план по дисциплине «Информатика и математика» для студентов 2 курса (набор, 46.52kb.
- Информация и информационные процессы, 276.11kb.
- Задачи и проблемы информатики 9 Инемного философии… 9 Использованная литература, 196.06kb.
- Защита данных комплекс мер, направленных на предотвращение потерь, воспроизведения, 85.23kb.
- Программа к вступительного экзамена в магистратуру по специальности 6М060200 Информатика, 50.03kb.
- Темы рефератов по истории информатики Шилов И. В. Эволюция понятия «информация», 19.62kb.
- Темы лекций. Неделя I: Предмет, объект, методы корпоративного управления. Основные, 54.05kb.
2. Информационный процесс. Фазы информационного процесса
Процесс, возникающий в результате установления связи между объектами реального мира, один из которых является источником, а другой потребителем информации, называется информационным. В информационных процессах можно выделить отдельные части – фазы. Фазы информационного процесса образуют полный (замкнутый) цикл.
Сбор информации - деятельность субъекта, в ходе которой он получает сведения об интересующем его объекте. Сбор информации может проводиться или человеком или с помощью технических средств (аппаратно). Например, пользователь может получить информацию о движении поездов несколькими способами:
- самостоятельно изучив расписание движения поездов;
- спросить у другого человека;
- через документы, составленные другим человеком;
- с помощью технических средств (автоматическая справка).
Обмен информацией – процесс, в ходе которого источник информации ее передает, а получатель – принимает. Если в передаваемых сообщениях обнаружены ошибки, то организуется повторная передача информации. Передача может осуществляться различными способами: с помощью курьера, по почте, с помощью транспортных средств, передача по каналам данных. В результате обмена между источником и получателем устанавливается «информационный баланс», при котором в идеальном случае получатель будет располагать той же информацией, что и источник.
Принятую информацию получатель может использовать неоднократно. С этой целью он должен зафиксировать ее на материальном носителе (бумажном, магнитном, фото, видео и др.). Процесс формирования исходного несистематизированного массива информации называется накоплением информации. Среди записанных сигналов могут быть такие, которые отражают ценную или часто используемую информацию, а могут быть и такие, которые не представляют ценности в настоящее время, но потребуются в дальнейшем.
Хранение информации – это процесс поддержания исходной информации в виде обеспечивающем выдачу данных по запросам в установленные сроки.
Обработка информации – упорядоченный процесс ее преобразования в соответствии с алгоритмом решения задач.
После обработки информации результат должен быть выдан конечному пользователю в требуемом виде. Эта операция реализуется в ходе решения задачи выдачи информации. Информация может выдаваться в виде текстов, таблиц, рисунков, диаграмм, графиков.
3. Количество информации
Существуют следующие способы измерения информации:
- энтропийный (вероятностный);
- объемный;
3.1. Энтропийный способ
В теории информации и кодирования принят энтропийный или вероятностный подход к измерению информации. Количество информации – это числовая характеристика сигнала, которая отражает ту степень неопределенности (неполноту) знаний, которая исчезает после получения сообщения в виде данного сигнала. Меру неопределенности в теории информации называют энтропией, следовательно, метод называется энтропийным.
Неопределенность можно охарактеризовать количеством возможных выборов действий в конкретной ситуации, а полученную информацию величиной, на которую уменьшилась степень неопределенности. При полной информации выбора нет.
Пример 1. Необходимо найти дом, в котором на какой-то известной улице живет нужный человек. Информация о том, что номер дома четный уменьшит неопределенность в два раза.
Пример 2. Человек бросает монету и наблюдает какой стороной она упадет. Обе стороны монеты равноценны, поэтому вероятности того, что она упадет орлом или решкой одинаковы. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. Когда монета упадет, неопределенность равна 0.
Этот пример относится к группе событий, применительно к которым можно поставить вопрос типа «Да – Нет». Количество информации, которое можно получить при ответе на такой вопрос называется битом (binary digit).
Бит - это минимальная единица количества информации, т. к. получить информацию меньше одного бита нельзя. При получении информации в один бит неопределенность уменьшается в два раза. Таким образом, бросание монеты дает информацию 1 бит.
Пример 3. Рассмотрим систему из 2 электрических лампочек, которые независимо друг от друга могут быть включены или выключены. Такая система может иметь следующие состояния:
Лампа А | 0 | 0 | 1 | 1 |
Лампа В | 0 | 1 | 0 | 1 |
Чтобы получить информацию об этой системе, надо задать два вопроса: о лампочке А и о лампочке В., т. е. количество информации, содержащейся в этой системе I=2бита, а количество возможных состояний системы N=4.
Если взять 3 лампочки , то количество информации Iбудет равно 3бита, а количество возможных состояний системы N=8.
Связь между количеством информации и числом состояний системы устанавливается формулой Хартли
,
где N- количество возможных состояний системы (или количество равновероятных событий),
I – количество бит в сообщении о том, что такое событие произошло.
Ту же формулу можно записать
.
Если события не равновероятны, то количество бит в сообщении о том, что произошло данное событие будет равно
,
где - вероятность того, что произойдет j –е событие.
3.2. Объемный способ измерения информации
В вычислительной технике используется более простой способ измерения информации, который называется объемным. Объем информации в сообщении – это количество символов в сообщении.
21 | Одно число в разной форме |
XXI | |
Двадцать один |
При использовании объемного метода все три сообщения имеют разный объем информации. Т. е. этот способ зависит от формы представления информации. В вычислительной технике вся обрабатываемая информация вне зависимости от ее природы (число, текст, символ) представляется в двоичной форме (с использованием алфавита, состоящего из 2 символов – 0 и 1). Тогда бит – это минимальная единица информации, соответствующая одному двоичному разряду.
8 бит=1байт, с помощью 1 байта можно закодировать 1 символ. Восьмиразрядная последовательность двоичных цифр дает 28=256 различных перестановок, этого достаточно для того, чтобы закодировать русские, латинские буквы, цифры и знаки.
Единицы измерения информации:
210 байт= | 1024байт= | 1К |
210 К= | 1024К= | 1Мб |
210 Мб= | 1024Мб= | 1Гб |