Методы получения и использования информации

Вид материалаДокументы
Подобный материал:
Методы получения и использования информации.

Методы получения и использования информации можно разделить на три группы, условно разграничиваемые и часто перекрывающие друг друга:
  1. эмпирические – методы получения эмпирической информации ( эмпирических данных );
  2. теоретические – методы получения теоретической информации ( построения теорий );
  3. эмпирико-теоретические (смешанные, полуэмпирические ) – методы получения эмпирико-теоретической информации.

Охарактеризуем кратко эмпирические методы:

-наблюдение – сбор первичной информации о системе ( в системе );

-cравнение – установление общего и различного в системе ( системах );

-измерение – нахождение эмпирических законов, фактов для системы;

-эксперимент – целенаправленное преобразование системы ( систем ).

Кроме этих классических форм их реализации в последнее время используются и такие формы, как опрос, интервью, тестирование и др.

Охарактеризуем кратко теоретические методы:

-восхождение от абстрактного к конкретному – получение знаний о системе на основе знаний о его проявлениях в сознании, в мышлении;

-идеализация – получение знаний о системе или о ее подсистемах путем мысленного конструирования, представления в мышлении систем и / или подсистем, не существующих в действительности;

-формализация – получение знаний о системе с помощью знаков или формул, т. е. Языков искусственного происхождения, например языка математики ( математическое, формальное описание, представление );

-аксиоматизация – получение знаний о системе или процессе с помощью некоторых, специально для этого сформулированных аксиом и правил вывода из этой системы аксиом;

-виртуализация – получение знаний о системе созданием особой среды, обстановки, ситуации, которую в реальных условиях, без этой среды невозможно реализовать и получить соответствующие знания.

Охарактеризуем кратко эмпирико-теоретические методы:

-абстрагирование – установление общих свойств объекта ( объектов ), замещение системы ее моделью;

-анализ – разъединение системы на подсистемы с целью выявления их взаимосвязей;

-синтез – соединение подсистем в систему с целью выявления взаимосвязей;

-индукция – получение знания о системе по знаниям о подсистемах;

-дедукция – получение знания о подсистемах по знаниям о системе;

-эвристика, использование эвристических процедур – получение знания о системе по знаниям о подсистемах и наблюдениям, опыту;

-моделирование, использование приборов - об объекте с помощью модели и / или приборов;

-исторический метод – нахождение знаний о системе с учетом ее предыстории;

-логический метод – метод нахождения знаний о системе путем воспроизведения его подсистем, связей или элементов в мышлении, в сознании;

-макетирование – получение информации по макету системы, т. е. С помощью представления подсистем в упрощенном виде, сохраняющем информацию, необходимую для понимания взаимодействия и связей этих подсистем;

-актуализация - получение информации с помощью ее активизации, инициализации, т. е. Переводом из статического ( неактуального ) состояния в динамическое ( актуальное ) состояние; при этом все необходимые связи и отношения ( открытой ) системы с внешней средой должны быть сохранены;

-визуализация – получение информации с помощью визуального представления состояний актуализированной системы; визуализация предполагает возможность выполнения операций типа ” передвинуть ”, ” повернуть ”, ” укрупнить ”, ” уменьшить ”, ” удалить ”, ” добавить ” и т. д. ( по отношению как к отдельным элементам, так и к подсистемам системы ).

В последнее время часто используются и такие формы, как мониторинг ( система наблюдений и анализа состояний системы ) деловые игры и ситуации, экспертные оценки ( экспертное оценивание ), имитация ( имитационная процедура, эксперимент ) и др.

Все эти методы получения информации обычно применяются многоуровневым комплексным образом.




С


Р


Е


Д


А



З


Н


А


Н

И


Я


Поллучение, обработка сообщение


Полу

чение дан ных

Эмпирические методы





Эмпирико – теоретические методы


Получение информации

Получение, хранение информации





Теоретические методы









Измерение сообщений и информации.

Информация может пониматься и интерпретироваться по-разному. Вследствие этого имеются различные подходы к определению методов измерения информации, меры количества информации. Раздел информатики ( теории информации ), изучающий методы измерения информации, называется информметрией.

Количество информации – числовая величина, характеризующая информацию по разнообразию, сложности.
  1. Мера Р. Хартли.
  2. Мера К. Шеннона.
  3. Термодинамическая мера.
  4. Энергоинформационная ( квантово-механическая ) мера.

Кроме указанных выше подходов к определению меры информации есть и множество других ( меры Винера, Колмогорова, Шрейдера и др. ), но основными методами ( в образовательной информатике ) являются указанные.

Существуют и применяются на практике понятие количества информации и единицы измерения количества информации. Однако, в отличие от массы, энергии и других физических свойств материальных объектов, количественные характеристики которых можно измерить приборами, а единицы измерения которых представляют эталонами, количество информации можно лишь вычислить, используя научные абстрактные математические модели, как это и производится в статической теории информации. Важными являются понятия нулевого количества информации и единицы измерения количества информации, называемой битом.

Логично утверждение, что информация отсутствует, когда в системе, какой бы она ни была сложной, не происходит никаких изменений, о которых мы могли бы что-нибудь узнать. Это вовсе не означает, что система потенциально не обладает структурой, свойствами и т.п., а следовательно, и информацией, но если мы об этом ничего не узнаем , то количество поступающей из системы информации равно нулю. Но если в системе происходит какие-то изменения, то об их наличии мы можем узнать, получив какое-то количество информации. За единичное (I = 1 бит) принимают такое количество информации, которое мы можем получить от простейшей системы, обладающей двумя различными, одинаково возможными для реализации состояния. Один бит информации мы получаем, если одно из указанных состояний реализовалось. В качестве примера такой системы можно рассмотреть выключатель. При его включении или выключении мы получаем 1 бит информации. Если выключатель сломан, то информация о включении или выключении отсутствует (I=0), но зато мы получаем 1 бит информации о том, что выключатель сломан (по отношению к нормальному).

Статистическая теория информации была развита американским математиком и инженером К. Шенноном и основывается на понятии вероятности событий. Вероятность событий и его неопределенность являются взаимно-обратными понятиями. Чем больше неопределенность состояния системы, тем меньше вероятность реализации этого состояния. Можно высказать и противоположное утверждение: чем больше вероятность реализации некоторого состояния системы, тем меньше неопределенность этого состояния.

Чтобы при обработке информации избавиться от операций с большими числами ( в битах ), на практике применяются производные величины, обозначающие более крупные единицы количества информации:
  • Байт ( 1 байт = 23 бит = 8 бит ),
  • Килобайт ( 1Кб = 210 байт = 1024 байт = 8192 бит )
  • Мегабайт ( 1 Мб = 1024 Кб = 1084 576 байт = 8 188 608 бит ),
  • Гигабайт ( 1 Гб = 1024 Мб = 8 589 934 592 бит )

Обработка информации при использовании современных компьютеров реализуется на основе представления об информации как о совокупности знаний, полезных сведений об окружающем мире и его свойств, известных и познаваемых человеком. В качестве материального носителя информации здесь используется электромагнитное поле, физические свойства которого обеспечивают обработку огромных потоков информации с максимально возможной в природе скоростью. При этом информация кодируется в виде аналоговых или цифровых электромагнитных сигналов, в последнем случае - в виде прямоугольных импульсов. Обработка информации производится с помощью электронных схем и по наличию или отсутствию электрического заряда, импульса напряжения или тока, импульса электрического или магнитного поля, которым сопоставляются: наличию – “ 1 ”, а отсутствию - “ 0 ” ( или наоборот ), т.е. здесь мы имеем дело с двоичной единицей или с одним битом информации. Обрабатываемая информация зашифровывается в двоичном коде наборами нулевых и единичных битов. Соответствующие электронные схемы и электромагнитные устройства позволяют не только реагировать на определенные комбинации битов при обработке информации, но и сохранять ( запоминать ) закодированную в виде набора битов обрабатываемую информацию на любое необходимое время, а также совершать над двоичными числами различные арифметические и логические действия. Современные компьютерные технологии обеспечивают производство ЭВМ с все возрастающими объемами хранимой информации и скоростями ее обработки, обеспечивая повсеместное внедрение информационных технологий.