Методика изучения информационных технологий в рамках школьного курса информатики

Дипломная работа - Педагогика

Другие дипломы по предмету Педагогика

перед тем, как они будут упорядочены в форму, понятную человеку. Смысловая обработка данных позволяет извлечь информацию, т.е. знание о том или ином предмете, процессе или явлении. Это значит, что данные служат сырьем для создания информации, полученной в результате обработки данных. Но под обработкой в данном случае следует иметь в виду механизм интерпретации (осмысливания) данных, их использования, позволяющий превратить их в информацию. Информация в процессе анализа превращается человеком в знания.

Что касается "сообщения", то под ним подразумевают обычно информацию, выраженную в определенной форме и подлежащую передаче. Сообщение - это форма представления информации. Примерами сообщений являются текст телеграммы, речь оратора, показания измерительного прибора, изображение на экране телевизора или дисплея

Очень интересным и актуальным в наше время является вопрос о ценности информации. Понятно, что ценность информации определяется ее получателем. Можно ли ввести в нашу деятельность меру ценности информации? В наш компьютерный век, насыщенный информацией, это было бы очень полезным.

Одно из первых предложений по определению ценности информации сделал в пятидесятые годы академик А.А. Харкевич. По его мнению, за меру ценности информации следовало бы принять количество информации, необходимое для достижения поставленной цели. Если до получения информации вероятность достижения цели равнялась Ро, а после ее получения Рn, то ценность информации можно определить как логарифм отношения Р0/Рn и измерять в единицах измерения количества информации.

Известны работы по созданию семантической теории информации (семантический - смысловой, относящийся к значению слова). Согласно этой теории для восприятия информации в любой предметной области (искусство, наука, окружающая среда) необходим подготовленный для этого восприятия приемник (слушатель, читатель, зритель).

Степень подготовленности приемника характеризуется неким справочником или словарем, называемым тезаурусом (по-гречески - запас), который содержит все смысловые связи между словами данного языка. В информатике этим понятием пользуются для обозначения полного систематизированного набора данных в какой-либо области знания, позволяющего человеку или компьютеру в ней ориентироваться.

Тезаурус каждого человека характеризует способность этого человека воспринимать те или иные сообщения. Ценность получаемой приемником (человеком) информации можно характеризовать степенью изменения индивидуального тезауруса под воздействием воспринимаемого сообщения.

Необходимость определения количества информации в сообщении с помощью численных единиц была связана с попыткой ученых разработать принципы передачи информации по каналам связи, дать оценку пропускной способности канала связи, разработать способы наилучшего кодирования информации, найти предельные соотношения для количества информации, которое может быть передано по каналу связи в единицу времени. Эти принципиальные вопросы составили начало нового научного направления - теории информации, возникшего в середине прошлого столетия благодаря в основном работам американского инженера и математика Клода Шеннона и советских ученых А.Н. Колмогорова, А.А. Харкевича, В.А. Котельникова.

Теория информации - это наука о методах наиболее рациональной (оптимальной) передачи информации по каналам связи в условиях помех. Она имеет самое тесное отношение к информатике.

Итак, попытаемся понять суть подхода к оценке количества информации некоторого источника сообщений (объект, событие, процесс). Прежде всего, необходимо отвлечься от конкретного содержания того события, о котором сообщается, т.е. от семантики сообщения. (Действительно, для канала связи совершенно неважно, какой смысл несет сообщение, важно, сколько символов нужно передать) Любое событие или объект в каждый момент времени может находиться в одном из большого числа возможных состояний, и описание события есть не что иное, как указание на то, в каком из возможных состояний он находится. Протекание события во времени есть смена этих состояний, выбранных из числа возможных.

Число возможных состояний создает неопределенность, и чем больше неопределенность выбора, тем больше информации можно получить, как результат выбора имеет большую степень неожиданности. Таким образом, информация в отвлеченном виде, без конкретного смысла сообщения, есть просто выбор некоторого определенного элемента из множества возможных.

Если множество вариантов выбора или неопределенность сделать минимальной, то это будет выбор альтернативы из двух возможных событий. Его вполне естественно принять за единицу количества информации. Эта единица называется "двоичной единицей", или "битом". Один бит - это количество информации, содержащееся в источнике с неопределенностью в два равновероятных события. Если выбор производится из числа событии щих два, всякое сужение неопределенности вдвое дает одну единицу информации.

Интересно, что это выражение для количества информации источника совпадает по форме и содержанию с выражением для энтропии в статистической физике.

Понятие энтропии было введено Клаузиусом в 1850 г. в связи со вторым законом термодинамики и означало меру беспорядка. Неупорядоченность можно интерпретировать как неизвестность системы для наблюдателя, т.е. насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибу?/p>