Учебно-методический комплекс обсужден на заседании кафедры «Математика и информатика» «18» ноября 2007 г. (Протокол №7)

Вид материалаУчебно-методический комплекс

Содержание


Опыт – этот метод в прошлом был основным для получения информации о природе и обществе. Эвристический метод
Целенаправленный поиск
Подобный материал:
1   ...   9   10   11   12   13   14   15   16   ...   23

Бурное развитие науки и промышленности в ХХ веке привело к тому, что человек оказался не в состоянии воспринимать и перерабатывать всю полученную информацию. Возникла необходимость классифицировать информацию, организовать ее хранение, доступ к ней и понять закономерности движения информации по различным темам и т.д. Исследования позволяющие разрешить возникшие проблемы, стали называть информатикой.


Таким образом, информатика – это наука, оперирующая с информацией.

Информация — одно из основных понятий науки. Наряду с та­кими понятиями, как вещество, энергия, пространство и время, оно составляет основу современной научной картины мира. Его нельзя определить через более простые понятия.

В слово «информация» вкладывается различный смысл в техни­ке, науке и в житейских ситуациях.

Под информацией в быту (житейский аспект) понимают сведе­ния об окружающем мире и протекающих в нем процессах, воспри­нимаемые человеком или специальными устройствами.

Под информацией в технике понимают сообщения, передавае­мые в форме знаков или сигналов.

Под информацией в теории информации понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность. По определению К. Шеннона, информация — это снятая неопределенность.

Под информацией в кибернетике, по определению Н. Винера, понимают ту часть знаний, которая используется для ориентирова­ния, активного действия, управления, т.е. в целях сохранения, со­вершенствования, развития системы.

Под информацией в семантической теории (смысл сообщения) понимают сведения, обладающие новизной.

Слово «информация» вошло в постоянное употребление в сере­дине двадцатого века. Клод Шеннон ввел этот термин в узком тех­ническом смысле, применительно к теории связи или передачи ко­дов, которая получила название «Теория информации».

В природе существует два фундаментальных вида взаимодействия: обмен веществом и энергией. Эти виды взаимодействия подчи­няются закону сохранения. Сколько вещества и энергии один объ­ект передал другому, столько тот и получил, и наоборот. Потери, происходящие при передаче, рассматриваются как отдельные акты взаимодействия с другими объектами той же среды. Энергетическое и вещественное взаимодействие объектов является симметричным, т.е. сколько один отдал, столько же другой получил.

Любое взаимодействие между объектами, в процессе которого один приобретает некоторую субстанцию, а другой ее не теряет, на­зывается информационным взаимодействием. Такое взаимодействие является несимметричным. Передаваемая при этом субстанция на­зывается информацией.

Из этого следует два наиболее общих свойства информации:
  • информация не может существовать вне взаимодействия объ­ектов;
  • информация не теряется ни одним из объектов в процессе взаимодействия.

Термин «информация» происходит от латинского слова informatio, что означает «сведения, разъяснение, осведомленность, изло­жение».

Информация является абстрактной категорией и связана с про­цессом познания человеком окружающего мира.

В информатике информацию понимают как абстрактное значе­ние выражений, графических изображений, указаний и высказы­ваний.

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринима­ют информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы. Эти сведения не известные до их получения, являются объектом хранения, передачи и переработки.

В случаях, когда говорят об автоматизированной работе с ин­формацией посредством технических устройств, то интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под инфор­мацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой после­довательности символов увеличивает информационный объем со­общения.

Итак, рассмотрены 3 аспекта понятия информации:
  • ее представление (внешняя форма);
  • ее абстрактное содержание (значение);
  • ее отношение к реальному миру (связь абстрактной информации с действительностью).

Методы получения информации можно классифицировать следующим образом:



Опыт – этот метод в прошлом был основным для получения информации о природе и обществе.

Эвристический метод – существовал и существует как метод проб и ошибок.

Целенаправленный поиск – характеризуется тем, что осуществляется не беспорядочный поиск вариантов, а используется научный подход. Этому поиску способствует развитие современной техники, которая позволяет обрабатывать большие объемы информации и получать все новые и новые результаты.

К основным свойствам информации можно отнести следующие:
  • достоверность;
  • полнота;
  • актуальность;
  • ясность;
  • ценность.

Измерение информации.

В настоящее время распространены подходы к определению понятия "количество информации". Они основаны на том, что информацию, содержащуюся в сообщении, можно трактовать в смысле ее новизны или, иначе, уменьшения неопределенности наших знаний об объекте.

В научном плане понятие "информация" связывается с вероятностью осуществления того или иного события.

Вероятность – числовая характеристика степени возможности наступления события.

Вероятность достоверного события (обязательно должно произойти) равна 1, невозможного события (не произойдет никогда) равна 0.