Курс лекций Преподаватель Михайлов Н. Л. Рыбинск 2001
Вид материала | Курс лекций |
- Курс лекций Преподаватель Михайлова Э. А. Рыбинск 2001 Содержание, 320.68kb.
- Курс лекций Преподаватель С. Н. Шинкарева Рыбинск 2001 Содержание, 239.97kb.
- Курс лекций Преподаватель Абрамова С. В. Рыбинск 2001 Содержание, 381.27kb.
- Курс лекций Преподаватель Бондаренко А. А. Рыбинск 2001, 568.31kb.
- Курс лекций Преподаватель Кустова Т. Н. Рыбинск 2000 Содержание, 803.12kb.
- Курс лекций Преподаватель Г. Н. Аштаев Рыбинск 2000 Задачи курса, 314.3kb.
- Курс лекций Барнаул 2001 удк 621. 385 Хмелев В. Н., Обложкина А. Д. Материаловедение, 1417.04kb.
- Курс лекций по теории и методологии гендерных исследований адресован прежде всего, 75.14kb.
- Ю. В. Михайлов история соединенных штатов америки учебное пособие, 1843.26kb.
- Курс лекций Тамбов 2008 Составитель: Шаталова О. А., преподаватель спецдисциплин тогоу, 1556.11kb.
Министерство образования РФ
Рыбинская государственная авиационная технологическая академия
Курс лекций
Преподаватель – Михайлов Н.Л.
Рыбинск 2001
Содержание
Понятие информации и методы ее измерения 4
Система 4
Экономическая информационная система 5
Понятие экономической информационной системы 5
Классификация экономических информационных систем 5
Состав (структура) экономической информационной системы 6
Жизненный цикл экономической информационной системы 8
Экономическая информация 9
Единицы экономической информации 9
Классификация экономической информации 10
Информационно-логическая модель предметной области 11
Предметная область 12
Структурные связи между информационными объектами 13
Каноническая форма информационно-логической модели 13
Модели данных 13
Синтаксические модели данных 14
Файловая модель 14
Иерархическая модель 14
Сетевая модель 15
Сравнение иерархической и сетевой моделей 16
Реляционная модель 16
Реляционная алгебра 16
Теоретико-множественные операторы 17
Cпециальные реляционные операторы 18
Проблемы проектирования реляционных баз данных 20
Обеспечение целостности БД 21
Cемантические модели данных 21
Модель семантических сетей 22
Элементы модели "сущность-связь" 23
Понятие информации и методы ее измерения
Информация – это сведения о лицах, объектах, фактах, событиях, явлениях и процессах независимо от формы их представления. Информационные процессы – это процессы сбора, обработки, накопления, хранения, актуализации, поиска и распространения информации. Информационная система – это организационно-упорядоченная совокупность документов или массивов документов и информационных технологий, в том числе с использованием средств вычислительной техники и связи, реализующая информационные процессы.
Документ или документарная информация – это зафиксированная на каком-либо носителе информация с реквизитами, позволяющими ее идентифицировать.
Одной из наиболее распространенных мер измерения информации (кроме ее натурального количественного измерения) является статистическая мера, связанная с вероятностью появления информации, то есть с вероятностью явления, события, факта, информация о которых должна быть получена. Вероятность появления каждого явления или события характеризует степень его неопределенности, причем чем больше или чем меньше вероятность появления какого-либо события, тем меньше информации об этом событии можно получить. Неопределенность каждого события в теории информации характеризуется энтропией. Энтропия замкнутого пространства событий имеет вид:




В теории информации принято величину I=log2pi называть количеством информации о каком-либо событии i. Тогда энтропия может рассматриваться как среднее количество информации о проявлениях данного события (так как

- Непрерывна на интервале 0≤p≤1;
- H(p) симметрична относительно p, то есть ее значение не меняется при любой перестановке мест аргументов;
- Если некоторое событие состоит из двух событий с вероятностями p1 и p2 так, что p1+p2=pk, то общая энтропия такого события находится как сумма энтропий неразветвленной части (системы) и разветвленной при условных вероятностях.



q2 q2

H(p1,…,pk-1, pk)=H(p1,…,pk-1)+pkH(

Энтропия характеризуется следующими свойствами:
- Она всегда отрицательна;
- Энтропия равна 0 в крайнем случае, когда вероятность появления одного события 1, а другого – 0;
- Энтропия нескольких событий имеет наибольшее значение, когда вероятности появления этих событий равны между собой.