Понятие информационной технологии

Вид материалаДокументы

Содержание


Понятие информации
Управляющая часть
Понятие ценности информации
Подобный материал:
1   2   3   4   5   6   7   8   9   ...   14

Понятие информации




Система управления:





Управляющая часть













Х=>

Объект управления

=>Y


Любая система обладает некоторой степенью неоднородности (энтропия) - Н. Априорная энтропия Н0 - в первый момент времени, Н1 -апостериорная энтропия - после получения некоторой информации. I = Н01 - количество информации, полученное в системе наблюдения. - количество информации, где рi - вероятность того, что произойдет некоторое i-тое событие или вероятность исхода некоторого i-го события, N - общее количество событий.

В литературе встречается множество определений понятия информация, но единого, универсального не существует.

Часто информацию определяют как некоторое сообщение, некоторые сведения, несущие нечто новое для того, кому они предназначены.

Однако более конкретно выглядит следующее определение. Информация - это выбор одного варианта (или нескольких) из многих возможных и равноправных. Слово

Если выбор подсказан или указан, то говорят о получении информации. Если выбор произведен самостоятельно, то говорят о возникновении информации. Если выбор однозначно предопределен ситуацией или предшествующими событиями, то об информации речь не идет, т. е. информация нулевая. По Кастлеру: информация есть закономерный выбор из прочих возможных и равноправных. В этом случае говорят о макроинформации. По Брилюену: информация есть не запомненный выбор из многих - микроинформация. Макроинформация носит иерархический характер. Накопленная таким образом информация составляет тезаурус системы. Информация бывает условная и безусловная. Безусловная - информация об окружающем мире. Примером условной информации является код, который используется для того, чтобы закодировать некоторую информацию.

Код - соответствие между условными символами и реальными предметами и/или реальными действиями.

Информация о различных природных явлениях и технологических процессах воспринимается человеком с помощью его органов чувств или измерительных приборов в виде тех или иных полей. Математически эти поля представляются в виде функции: у=f(x,t), где t - время, х - точка, в которой измеряется поле, у - величина поля в этой точке в момент времени t. В большинстве случаев скалярные величины x и t, входящие в функцию могут принимать непрерывный ряд значений, измеряемых вещественными числами. Под непрерывностью понимают то, что непрерывные величины могут изменяться сколь угодно малыми значениями. Такая информация называется непрерывной (аналоговой).

Используется такое понятие как ценность информации.

1. Есть подход для определения ценности информации с точки зрения достижения цели системой, которая получает данную информацию. Предполагается, что цель известна и речь идет о том, как ее достичь. При этом ценной считается та информация, которая помогает в достижении цели.

Два метода определения количественной меры ценности информации:

а) метод акад. Стратоновича. Этот метод предполагает, что цель достижима, причем несколькими путями. Тогда ценность информации измеряется как уменьшение возможных затрат или условных штрафов, которые приходится заплатить при достижении цели.

б) Если достижение цели маловероятно, удобно пользоваться методом Бонгарта - Харкевича. Мерой ценности информации при этом является log отношения вероятностей достижения цели до получения информации Р0 и после получения информации Р1:



Ценность может быть как положительной так и отрицательной. Такая информация называется дезинформацией.

2. Существует подход определения ценности информации с точки зрения тезауруса: чем больше приращение тезауруса, тем больше ценность информации.

ценность







min max объем


Понятие ценности информации



Измерение только количества информации не отвечает насущным потребностям современного общества - необходима мера ценности информации. Уместно вспомнить замечание академика П. Н. Федосеева: «В последние годы все острее встает проблема так называемого информационного взрыва. Потребности развития науки, задачи оптимизации производства и переработки информации требуют решения проблемы ее содержательности, ценности. Как найти критерий для измерения этих свойств информации? Эта «задача века» стоит перед наукой в целом...»

Проблема определения ценности информации исключительно актуальна в настоящее время. Если в 50-е годы эта научная задача могла показаться несколько надуманной, то сейчас, когда уже трудно даже с помощью компьютеров обрабатывать информационный поток, разработанные методы определения ценности информации сыграли бы существенную роль в получении человеком необходимой информации.

Одной из первых советских работ по проблеме ценности информации явилась статья А. А. Харкевича, в которой предлагалось принять за меру ценности информации количество информации, необходимое для достижения поставленной цели, т. е. рассчитывать приращение вероятности достижения цели. Так, если до получения информации вероятность достижения цели равнялась Р0, а после ее получения - Р1, то ценность информации определяется как логарифм отношения P10. Ценность информации при этом измеряется в битах.

Этот критерий логически связан с шенноновской теорией информации, где под количеством информации имеется в виду снятая неопределенность.

Пользоваться критерием оценки значимости информации следует избирательно. Дело в том, что информация относительна: полученные сведения могут не иметь отношения к решаемой задаче, но тем не менее быть информативными. Статья в специальном журнале для специалиста может иметь большую ценность, в то время как для читателя журнала «Крокодил» - никакой.

Вообще, оценка значимости информации производится человеком часто интуитивно, опираясь на собственный интеллект и опыт. Сложность проблемы оценки информации хорошо иллюстрируется известной шуткой из сборника «Физики продолжают шутить»: «Альберт Эйнштейн любил фильмы Чарли Чаплина и относился с большой симпатией к созданному им герою. Однажды он написал в письме к Чаплину: «Ваш фильм «Золотая лихорадка» понятен во всем мире, и Вы непременно станете великим человеком. Эйнштейн.» На это Чаплин ответил так: «Я Вами восхищаюсь еще больше. Вашу теорию относительности никто в мире не понимает, а Вы все-таки стали великим человеком. Чаплин».

Подход А. А. Харкевича к оценке информации развивается в работах Р. Л. Стратоновича, Б. А. Гришаиина, М. К. Гавурина, где понятие ценности информации базируется на статистической теории информации и теории решений. Сущность метода состоит в том, что кроме вероятностных характеристик неопределенности объекта до и после получения информации вводятся функции штрафов или потерь и оценка информации производится в результате минимизации потерь. Максимальной ценностью обладает то количество информации, которое уменьшает потери до нуля при достижении поставленной цели.

В том варианте теории ценности информации, который развивает М. М. Бонгард, предполагается, что получаемое количество информации может не иметь никакой ценности или его ценность может быть отрицательной. При этом можно рассматривать случай, когда передается ложная информация (дезинформация) и неопределенность не сокращается, а возрастает.

Информация называется полезной, если она уменьшает неопределенность решающего алгоритма. М. М. Бонгард отмечает, что не имеет смысла говорить о полезной информации, содержащейся в сигнале, если не указаны задана, которая решается, начальное состояние решающего алгоритма и свойства декодирующего алгоритма.

Таким образом, различные подходы к решению проблемы ценности информации имеют принципиально общие черты: они предлагают измерять ценность информации через ее количество, связывают ценность информации с поставленной задачей. Пока можно сделать вывод, что задана определения ценности информации при достаточной степени формализации, которая требуется при компьютеризованной оценке, еще не решена, одна ко это не означает невозможности ее решения в будущем .