Рекомендации по проведению занятий 10

Вид материалаКонтрольные вопросы

Содержание


Теоретические основы информатики
Практической деятельности
Краткие сведения
Вероятностный подход
H формулой Шеннона: H
Частотность букв русского языка
Контрольные вопросы
Подобный материал:
1   2   3   4   5   6   7   8   9   ...   21
Глава 1

^ ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ИНФОРМАТИКИ

Теоретические основы информатики - пока не вполне сложившийся и устоявшийся раздел науки. Он возникает на наших глазах, что делает его особенно интересным: нечасто удается наблюдать и даже участвовать в рождении новой науки! Как и теоретические разделы других наук, теоретическая информатика формируется в основном под влиянием потребностей обучения информатике.

Теоретическая информатика - наука в значительной степени математизированная. Она базируется на ряде разделов математики: теории автоматов и алгоритмов, математической логике, теории формальных языков и грамматик, реляционной алгебре, теории информации и др.

Теоретическая информатика старается методами точного анализа ответить на основные вопросы, возникающие при хранении и обработке информации, например, чему равно количество информации, сосредоточенной в той или иной информационной системе, какова наиболее рациональная организация информации для хранения или поиска, а также существуют ли алгоритмы и каковы свойства алгоритмов преобразования информации.

Конструкторы устройств хранения данных проявляют чудеса изобретательности, увеличивая объем и плотность хранения данных на дисках, но в основе этой деятельности лежат теория информации и теория кодирования.

Для решения прикладных задач существуют замечательные программы, но для того, чтобы грамотно поставить прикладную задачу, привести ее к виду, который подвластен компьютеру, надо знать основы информационного и математического моделирования и т.д.

Только освоив эти разделы информатики, можно считать себя специалистом в этой науке. Другое дело - с какой глубиной осваивать; многие разделы теоретической информатики достаточно сложны и требуют основательной математической подготовки.

Большую часть практических занятий по теоретической информатике целесообразно строить в семинарской форме. Полезна подготовка рефератов, чтение докладов.

Важная задача практикума по этому разделу - формирование познавательных интересов, выработка навыков самостоятельной работы с литературой, расширение кругозора в области информатики.

§ 1. ИНФОРМАТИКА КАК НАУКА И КАК ВИД
^ ПРАКТИЧЕСКОЙ ДЕЯТЕЛЬНОСТИ


Рекомендации по проведению занятий

Практические занятия по этой теме проводятся на семинарах. Важную роль играет написание и защита рефератов.

^ Краткие сведения

Информатика - это наука и сфера практической деятельности, связанная с различными аспектами получения, хранения, обработки, передачи и использования информации.

"Понятие информатики охватывает области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, организационные аспекты, а также комплекс промышленного, коммерческого, административного и социального воздействия" - такая формулировка была дана в 1978 г. Международным конгрессом по информатике.

С современной точки зрения понятие "информатика" шире, чем используемое в англоязычных странах Computer Science, поскольку включает как прикладную часть ("компьютерные науки"), так и теоретическую, связанную с отмеченными выше аспектами действий с информацией.

Информатика включает в себя следующие основные разделы: теоретическую информатику, вычислительную технику, программирование, информационные системы, искусственный интеллект. Она является конгломератом наук, объединенных общим объектом исследования.

Научное ядро информатики относят к фундаментальным наукам, поскольку ее основные понятия носят общенаучный характер, используются во многих других науках и видах деятельности.

Информатика имеет существенные социальные аспекты. Она "включает... комплекс промышленного, коммерческого, административного и социального воздействия". Информатизация, т.е. процесс проникновения информационных технологий во все сферы жизни и деятельности общества, сильно влияет на социальную сферу. В настоящее время в общественном устройстве развитых стран появились черты информационного общества, во все сферы жизни и деятельности членов которого включены средства информатики в качестве орудий интеллектуального труда, переработки любой информации, моделирования реальных и прогнозируемых событий, управления производством, обучения и т.д.

Под влиянием информатизации радикально меняется структура труда, совершается переток людей из сферы прямого материального производства в так называемую информационную сферу. Промышленные рабочие и крестьяне, составлявшие в середине XX века более 2/3 населения, сегодня в развитых странах составляют менее 1/3. К середине 90-х годов численность "информационных работников" (к которым причисляют всех, в чьей профессиональной деятельности доминирует умственный труд) достигла в США 60 %. Добавим, что за те же годы производительность труда в США за счет научно-технического прогресса (ведь информатизация - его главная движущая сила) в целом выросла на 37 %.

Информатизация сильнейшим образом влияет на структуру экономики ведущих в экономическом отношении стран. В числе их лидирующих отраслей промышленности традиционные добывающие и обрабатывающие отрасли оттеснены максимально наукоемкими производствами электроники, средств связи и вычислительной техники - так называемой сферой высоких технологий. Темпы развития сферы высоких технологий и уровень прибылей в ней превышают в 5- 10 раз темпы развития традиционных отраслей производства.

Существуют и отрицательные социальные последствия информатизации общества (по крайней мере при оценке с традиционных позиций): более быстрое высвобождение рабочей силы, чем это может освоить общество, повышенная социальная напряженность из-за роста интеллектуальной конкуренции, усиление контроля со стороны государства за каждым членом общества в демократических странах и т.д.

Правовые аспекты информатики связаны с тем, что деятельность программистов и других специалистов, работающих в сфере информатики, все чаще выступает в качестве объекта правового регулирования. Некоторые действия при этом могут быть квалифицированы как правонарушения (преступления). Регулированию подлежат вопросы собственности на информацию, охрана авторских прав на компьютерные программы и базы данных, гарантии сохранения конфиденциальности и секретности определенных видов информации и многое другое. Информатизация социальной сферы, распространение информационных сетей породили как новые виды преступности, так и многочисленные правовые проблемы, правовое регулирование которых далеко от завершения.

В Российской Федерации (как и в других странах) действуют специальные правовые акты, регламентирующие отношения в сфере информации. К ним, в частности, относятся:
  • Закон Российской Федерации "О правовой охране программ для электронных вычислительных машин и баз данных" (1992 г.);
  • Указ Президента Российской Федерации "Об основах государственной политики в сфере информатизации" (1994 г., изменения и дополнения - 1995 г.);
  • Закон Российской Федерации "Об информации, информатизации и защите информации" (1995 г.);
  • Закон Российской Федерации "Об участии в международном информационном обмене" (1996 г.);
  • Постановление Правительства Российской Федерации "О сертификации средств защиты информации" (1995 г.);
  • Постановление Правительства Российской Федерации "О государственном учете и регистрации баз и банков данных" (1996 г.);
  • Постановления Правительства Российской Федерации "О государственном учете и регистрации баз и банков данных" и "Об утверждении положения о государственной системе научно-технической информации" (1997 г.).

Этические аспекты информатики чрезвычайно важны. Далеко не все правила, регламентирующие деятельность в сфере информатики, можно свести к правовым нормам. Очень многое определяется соблюдением неписаных правил поведения для тех, кто причастен к миру компьютеров. Как и в любой другой большой и разветвленной сфере человеческой деятельности, в информатике к настоящему времени сложились определенные морально-этические нормы поведения и деятельности.

Этика - система норм нравственного поведения человека. Всякий раз, собираясь совершить сомнительный поступок в сфере профессиональной деятельности, человек должен задуматься, соответствует ли он этическим нормам, сложившимся в профессиональном сообществе.

Контрольные вопросы

  1. Какие определения информатики Вы знаете?
  2. Как появился термин "информатика"?
  3. Каков объект и предмет исследования информатики?
  4. Расскажите о целях и задачах информатики.
  5. Что общего и в чем различие информатики и кибернетики?
  6. Какое место занимает информатика в системе наук?
  7. Какова структура современной информатики? Из каких частей и разделов она состоит?
  8. Какие существуют наиболее известные информационные технологии?
  9. Дайте определение фундаментальной естественной науки, приведите примеры.
  10. Каково различие между естественными и техническими науками? К каким наукам следует отнести информатику?
  11. Что такое информационная революция?
  12. Назовите процессы, приводящие к созданию информационного общества.
  13. Что принято понимать под "информационным обществом"?
  14. Каковы основные социальные последствия информатизации общества?
  15. Какими нормативными актами регулируются отношения в сфере информатики?
  16. В чем состоит авторское право на программные средства и базы данных?
  17. В чем состоит имущественное право на программные средства и базы данных?
  18. Как осуществляется защита авторских и имущественных прав?
  19. Охарактеризуйте виды компьютерных преступлений.
  20. Расскажите об этике программистов и этических аспектах Internet.

Проблемные вопросы

  1. Как и для чего появилась информатика?
  2. Расскажите об информатике как об отрасли, как о науке, как о прикладной дисциплине.
  3. Почему компьютеризация хотя и является важным шагом к информационному обществу, но еще не делает его таковым?
  4. Какие этические проблемы существуют, по Вашему мнению, в современной информатике?
  5. В чем заключается правовое регулирование на информационном рынке?
  6. В чем отличие процессов компьютеризации и информатизации?
  7. Чем определяется информационный потенциал общества?

Темы для рефератов

  1. История развития информатики.
  2. Кибернетика - наука об управлении.
  3. Информатика и управление социальными процессами.
  4. Информационные системы.
  5. Автоматизированные системы управления.
  6. Автоматизированные системы научных исследований.
  7. Составные части современной информатики.
  8. Построение интеллектуальных систем.

  1. Информатика и математика.
  2. Информатика и естественные науки.
  3. Компьютер как историогенный фактор.
  4. Компьютерная революция: социальные перспективы и последствия.
  5. Путь к компьютерному обществу.
  6. Информатика в деятельности юриста.
  7. Общие приемы правового регулирования информационных отношений.
  8. Правонарушения в сфере информационных технологий.
  9. Правила этикета при работе с компьютерной сетью.
  10. Защита информации в Internet.
  11. Информационная основа управления экономикой.
  12. Информационный бизнес.

Темы семинарских занятий

  1. История развития информатики.
  2. Информатика как единство науки и технологии.
  3. Структура современной информатики.
  4. Место информатики в системе наук.
  5. Социальные аспекты информатики.
  6. Правовые аспекты информатики.
  7. Этические аспекты информатики.

Дополнительная литература

  1. Аветисян Р.Д., Аветисян Д.В. Теоретические основы информатики. - M.: РГГУ, 1997.
  2. Азимов Ч.Н. Научно-техническая информация и право. - Харьков: Выща шк., 1987.
  3. Андрундас E.Ч, Информационная элита: Корпорации и рынок новостей. - M.: Изд-во МГУ, 1991.
  4. Батурин Ю.М, Жодзинский А.М. Компьютерная преступность и компьютерная безопасность. - M.: Юрид. лит., 1991.
  5. Введение в информационный бизнес: Учеб. пособие / Под ред. В.П.Тихомирова, А.В.Хорошилова. - M.: Финансы и статистика, 1996.
  6. Воробьев Г.Т. Твоя информационная культура. - M.: Мол. гвардия, 1988.
  7. Воронов Ю.П. Компьютеризация: Шаг в будущее. ~ Новосибирск: Наука. Сиб. отд-ние, 1990.
  8. Гаврилов O.A. Основы правовой информатики. - M.: Ин-т государства и права РАН, 1998.
  9. Гейтс Б. Дорога в будущее. - M.: Русская редакция, 1996.
  10. Голъгамер Г.И. Научно-информационная деятельность: Практика и проблемы. - M.: Радио и связь, 1987.
  11. Готт Б.C., Семенюк Э.Я., Урсул А.Д. Социальная роль информатики. - M.: Знание, 1987.
  12. Закон Российской Федерации "О правовой охране программ для электронных вычислительных машин и баз данных". - M., 1992.
  13. Информатика / Под ред. Н.В.Макаровой. - M.: Финансы и статистика, 1997.
  14. Информатика в понятиях и терминах. - M.: Просвещение, 1991.

  1. Информатика в рабочих профессиях. - M.: Наука, 1990.
  2. Информатика и культура. Сб. науч. тр. - Новосибирск: Наука. Сиб. отд-ние, 1990.
  3. Информатика. Энциклопедический словарь для начинающих. - M.: Педагогика-Пресс, 1994.
  4. Информационные технологии в научных исследованиях и испытаниях. Сб, науч. тр. - Киев: ИК, 1991.
  5. Коновец А.Ф. НТП и информация. - M.: Знание, 1990.
  6. Крол Э. Все об Internet: Пер. с англ. - СПб.: АО Балтэк; Киев: Торг.-изд. бюро BHV, 1995.
  7. Коханов B.B. Информационные процессы в природе, обществе, технике. - Чебоксары: Клио, 1997.
  8. Ловцов Д. Защита информации в глобальной сети ИНТЕРНЕТ // Информатика и образование. - 1998. - №5. - С. 101-108.
  9. Мазур M. Качественная теория информации. - M.: Мир, 1974.
  10. Майоров С.И. Информационный бизнес: Коммерческое распространение и маркетинг. - M.: Финансы и статистика, 1993.
  11. Марков С. Информатика как базовая наука образования // Информатика и образование. - 1998. - №6. - С.3-8.
  12. Морозов И.Ю. Информатика: Учеб. пособие. 4.1. - Омск: Изд-во ОмГУ, 1995.
  13. Научные основы организации управления и построения АСУ / Под ред. В.Л.Бройло, В.С.Крылова. - M.: Высш. шк., 1990.
  14. Овезов Б.Б. Автоматизация управления информационными процессами. - Ашхабад: Ылым, 1981.
  15. Першиков В.И., Савинков B.M. Толковый словарь по информатике. - M.: Финансы и статистика, 1995.
  16. Право и информатика/ Под ред. Е.А.Суханова. - M.: Изд-во МГУ, 1990.
  17. Применение информатики в управлении, обучении и научных исследованиях. - M.: Изд-во МГУ, 1989.
  18. Проектирование и использование региональных АСНТИ. - Новосибирск: Наука. Сиб. отд-ние, 1991.
  19. Пушкин В.Г., Урсул А.Д. Информатика, кибернетика, интеллект. - Кишинев: Штиинца, 1989.
  20. Ракитов А.И. Информационная революция: Наука, экономика, технология. - M.: Изд-во ИНИОН РАН, 1993.
  21. Ракитов А.И. Философия компьютерной революции. - M.: Мысль, 1991.
  22. Симонович C.B., Евсеев Г.А., Алексеев А.Г. Общая информатика. - M.: ACT-ПРЕСС, 1998.
  23. Создание автоматизированных систем информационного обеспечения научных исследований. Сб. науч. тр. - Киев: ИК, 1986.
  24. Страссман П.А. Информация в век электроники: Пер. с англ. - M.: Экономика, 1987.
  25. Суханов А.П. Информация и прогресс. - Новосибирск: Наука. Сиб. отд-ние, 1988.
  26. Сухина В.Ф. Человек в мире информатики. - M.: Радио и связь, 1992.
  27. Урсул А.Д. Информатизация общества (Введение в социальную информатику): Учеб. пособие. - M.: Высш. шк., 1990.
  28. Цьшбал В.П. Информатика и индустрия информации. - Киев: Выща шк., 1989.
  29. Черри К. Человек и информация: Пер. с англ. - M.: Связь, 1979.
  30. Шнейдеров В.С. Занимательная информатика. - СПб.: Политехника, 1994.
  31. Юзвишин И.И. Информациология, или Закономерности информационных процессов и технологий в микро- и макромирах Вселенной. - M.: Радио и связь, 1996.

§ 2. ИНФОРМАЦИЯ, ЕЕ ВИДЫ И СВОЙСТВА

Краткие сведения

Понятие "информация" является одним из фундаментальных в современной науке вообще и базовым для информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако если задаться целью формально определить понятие "информация", то сделать это будет чрезвычайно сложно.

В простейшем бытовом понимании с термином "информация" обычно ассоциируются некоторые сведения, данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы, и т.д. При этом предполагается, что имеются "источник информации" и "получатель информации".

Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае "каналом связи". Так, при передаче речевого сообщения в качестве канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.

Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств: важность, достоверность, своевременность, доступность, "больше-меньше" и т.д. Использование терминов "больше информации" или "меньше информации" подразумевает некую возможность ее измерения (или хотя бы количественного соотнесения). При субъективном восприятии измерение информации возможно лишь в виде установления некоторой субъективной порядковой шкалы для оценки "больше-меньше". При объективном измерении количества информации следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств, примеры которых перечислены выше. Более того, не исключено, что не всякая информация будет иметь объективно измеряемое количество.

Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция - носитель информации. Сообщение, передаваемое с помощью носителя, - сигнал. В общем случае сигнал - это изменяющийся во времени физический процесс. Та из характеристик процесса, которая используется для представления сообщений, называется параметром сигнала.

В случае, когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов, - дискретным сообщением. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала - непрерывная функция от времени), то соответствующая информация называется непрерывной. Примеры дискретного сообщения - текст книги, непрерывного сообщения - человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в последнем случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха.

Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Из бесконечного множества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область определения функции разбивается на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке. В итоге получим конечное множество чисел. Таким образом, любое непрерывное сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер - цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Единицы количества информации: вероятностный и объемный подходы

Определить понятие "количество информации" довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики, американский математик Клод Шеннон, развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к "объемному" подходу.

^ Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней. Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2, ..., N.

Введем в рассмотрение численную величину, измеряющую неопределенность - энтропию (обозначим ее H). Согласно развитой теории, в случае равновероятного выпадания каждой из граней величины N и Я связаны между собой формулой Хартли H = log2N.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Я будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты, при котором возможны два исхода: "орел", "решка"). Такая единица количества информации называется "бит".

В случае, когда вероятности Pi результатов опыта (в примере, приведенном выше, - бросания игральной кости) неодинаковы, имеет место формула Шеннона H = -

N

Σ

i - 1

Pi   × log2Pi. В случае равновероятности событий P1 =

1

N

  , и формула Шеннона переходит в формулу Хартли.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака "пробел" для разделения слов. По формуле Хартли H = log2 34 ≈ 5,09 бит.

Однако в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1.1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.

Воспользуемся для подсчета ^ H формулой Шеннона: H ≈ 4,72 бит. Полученное значение H, как и можно было предположить, меньше вычисленного ранее. Величина H, вычисляемая по формуле Хартли, является максимальным количеством информации, которое могло бы приходиться на один знак.

Аналогичные подсчеты H можно провести и для других языков, например, использующих латинский алфавит - английского, немецкого, французского и др. (26 различных букв и "пробел"). По формуле Хартли получим H = log2 27 ≈ 4,76 бит.

Таблица 1.1

^ Частотность букв русского языка

i

Символ

P(i)

i

Символ

Р(i)

i

Символ

P(i)

1

_

0,175

12

Л

0,035

23

Б

0,014

2

0

0,090

13

К

0,028

24

Г

0,012

3

Е

0,072

14

м

0,026

25

Ч

0,012

4

Ё

0,072

15

д

0,025

26

И

0,010

5

А

0,062

16

п

0,023

27

X

0,009

6

И

0,062

17

У

0,021

28

Ж

0,007

7

Т

0,053

18

я

0,018

29

ю

0,006

8

Н

0,053

19

ы

0,016

30

ш

0,006

9

С

0,045

20

3

0,016

31

Ц

0,004

10

Р

0,040

21

ь

0,014

32

Щ

0,003

11

В

0,038

22

ъ

0,014

33

Э

0,003

 

 

 

 

 

 

34

Ф

0,002

Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (P(0) = P(1) = 0,5), то количество информации на один знак при двоичном кодировании будет равно H = log2 2 = 1 бит.

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

Объемный подход

В двоичной системе счисления знаки 0 и 1 называют битами (bit - от английского выражения Binary digiTs - двоичные цифры). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации. 1024 байта образуют килобайт (Кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в вероятностном (кибернетическом) смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то это количество не обязательно совпадает, при этом кибернетическое количество информации не может быть больше объемного.

В прикладной информатике практически всегда количество информации понимается в объемном смысле.

Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смысле) происхождения на первый план могут выступить такие ее свойства, как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах "уменьшение неопределенности" (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. из качественных характеристик, значимых в социальной системе. При семантическом подходе информация рассматривается с точки зрения как формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Отметим, что эти подходы не исключают количественного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.

Понятие информации нельзя считать лишь техническим, междисциплинарным и даже над дисциплинарным термином. Информация - это фундаментальная философская категория. Дискуссии ученых о философских аспектах информации надежно показали несводимость информации ни к одной из этих категорий. Концепции и толкования, возникающие на пути догматических подходов, оказываются слишком частными, односторонними, не охватывающими всего объема этого понятия.

Попытки рассмотреть категорию информации с позиций основного вопроса философии привели к возникновению двух противостоящих концепций - функциональной и атрибутивной. "Атрибутисты" квалифицируют информацию как свойство всех материальных объектов, т.е. как атрибут материи. "Функционалисты" связывают информацию лишь с функционированием сложных, самоорганизующихся систем.

Можно попытаться дать философское определение информации с помощью указания на связь определяемого понятия с категориями отражения и активности. Информация есть содержание образа, формируемого в процессе отражения. Активность входит в это определение в виде представления о формировании некоего образа в процессе отражения некоторого субъект-объектного отношения. При этом не требуется указания на связь информации с материей, поскольку как субъект, так и объект процесса отражения могут принадлежать как к материальной, так и к духовной сфере социальной жизни. Однако существенно подчеркнуть, что материалистическое решение основного вопроса философии требует признания необходимости существования материальной среды - носителя информации в процессе такого отражения. Итак, информацию следует трактовать как имманентный (неотъемлемо присущий) атрибут материи, необходимый момент ее самодвижения и саморазвития. Эта категория приобретает особое значение применительно к высшим формам движения материи - биологической и социальной.

Известно большое количество работ, посвященных физической трактовке информации. Эти работы в значительной мере построены на основе аналогии формулы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли. Соответствующие материалы можно найти в литературе, отраженной в приведенном ниже перечне.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование "ресурса" как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы. В связи с таким взглядом центральными становятся следующие свойства информации: запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемость.

Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не завершены) усилия ученых, представляющих самые разные области знания, построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы. Движение информации есть сущность процессов управления, которые суть проявление имманентной активности материи, ее способности к самодвижению. С момента возникновения кибернетики управление рассматривается применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Многие проявления движения в неживых - искусственных (технических) и естественных (природных) системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной науки - синергетики.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это над дисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассматривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.

^ Контрольные вопросы

  1. Какая форма представления информации - непрерывная или дискретная - приемлема для компьютеров и почему?
  2. В чем состоит процедура дискретизации непрерывной информации?
  3. Какие определения понятия "информация" Вы знаете?
  4. Назовите основные свойства информации.
  5. Каким образом возникает, хранится, обрабатывается и передается информация?
  6. Какая форма представления информации используется в информатике?
  7. Какие виды информационных сигналов Вы знаете?
  8. В чем преимущества дискретного представления информации?
  9. Может ли человек передать информацию машине? Каким образом? А наоборот?
  10. Что такое количество информации?

  1. Какой принцип положен в основу измерения количества информации?
  2. Каким образом определяется единица количества информации при кибернетическом подходе?
  3. Как определяется количество информации в знаковых сообщениях?
  4. Каковы основные единицы измерения количества информации?
  5. Приведите объемы памяти известных Вам носителей информации.
  6. Как определяется понятие энтропии? Как она связана с информацией?
  7. Какова связь между энтропией, не энтропией и информацией?
  8. Какие свойства социальной информации важны при ее качественном анализе?
  9. Определите информацию как философскую категорию.
  10. В чем состоит функциональная концепция информации?
  11. В чем состоит атрибутивная концепция информации?
  12. Как связана информация с категориями отражения и активности?
  13. Расскажите об информационной трактовке социальных процессов.
  14. Каковы основные свойства информации как особого вида ресурса?
  15. Расскажите о движении информации с точки зрения процессов управления.

Проблемные вопросы

  1. Приведите примеры передачи, хранения и обработки информации в природе, технической и общественной деятельности человека.
  2. Какие проблемы по хранению и обработке информации решают современные информационные технологии и какие создают?
  3. Дайте определение меры неопределенности. Проиллюстрируйте это понятие.
  4. Почему информация является философской категорией?
  5. Почему нельзя однозначно сопоставить информацию и энтропию?
  6. Почему обе концепции информации - как функциональная, так и атрибутивная - являются неполными?

Темы для рефератов

  1. Проблема информации в современной науке.
  2. Передача информации.
  3. Дискретизация непрерывных сообщений.
  4. Субъективные свойства информации.
  5. Аналоговые ЭВМ.
  6. Непрерывная и дискретная информация.
  7. Информация и энтропия.
  8. Вероятность и информация.
  9. Проблема измерения информации.
  10. Ценностный подход к информации.
  11. Семантическая информация.
  12. Атрибутивная и функциональная концепции информации.
  13. Информация и эволюция живой природы.
  14. Информационные процессы в неживой природе.
  15. Отражение и информация.
  16. Материя, энергия и информация.
  17. Синергетика и информация.
  18. Познание, мышление и информация.

  1. Картина мира и информация.
  2. Свойства информационных ресурсов.
  3. Информация и сознание.

Темы семинарских занятий

  1. Различные уровни представлений об информации.
  2. Непрерывная и дискретная информация.
  3. Единицы количества информации: вероятностный и объемный подходы.
  4. Философия и информация.
  5. Информация и физический мир.

Задачи и упражнения

  1. Подсчитайте количество информации, приходящейся на один символ, в следующем тексте экономического содержания:

Организационно-правовые формы предприятий в своей основе определяют форму их собственности, то есть кому принадлежит предприятие, его основные фонды, оборотные средства, материальные и денежные ресурсы. В зависимости от формы собственности в России в настоящее время различают три основные формы предпринимательской деятельности: частную, коллективную и контрактную.

Указание: составьте таблицу, аналогичную табл. 1.1, определив вероятность каждого символа в тексте как отношение количества одинаковых символов каждого значения ко всему числу символов в тексте. Затем по формуле Шеннона подсчитайте количество информации, приходящейся на один символ.

  1. Подсчитайте количество информации, приходящейся на один символ, в следующем тексте технического содержания:

Общая технологическая схема изготовления сплавного транзистора напоминает схему изготовления диода, за исключением того, что в полупроводниковую пластинку производят вплавление двух навесок примесей с двух сторон. Вырезанные из монокристалла германия или кремния пластинки шлифуют и травят до необходимой толщины.

  1. Подсчитайте количество информации, приходящейся на один символ, в следующем тексте исторического содержания:

С конца пятнадцатого столетия в судьбах Восточной Европы совершается переворот глубокого исторического значения. На сцену истории Европы выступает новая крупная политическая сила - Московское государство. Объединив под своей властью всю северо-восточную Русь, Москва напряженно работает над закреплением добытых политических результатов и во внутренних, и во внешних отношениях.

  1. Подсчитайте количество информации, приходящейся на один символ, в следующем тексте естественно-научного содержания:

Новые данные о физиологической потребности организма человека в пищевых веществах и энергии, а также выяснение закономерностей ассимиляции пищи в условиях нарушенного болезнью обмена веществ на всех этапах метаболического конвейера позволили максимально сбалансировать химический состав диет и их энергетическую ценность.

  1. Подсчитайте количество информации, приходящейся на один символ, в следующем художественно-литературном тексте:

С любопытством стал я рассматривать сборище. Пугачев на первом месте сидел, облокотясь на стол и подпирая черную бороду своим широким кулаком. Черты лица его, правильные и довольно приятные, не изъявляли ничего свирепого. Все обходились между собою как товарищи и не оказывали никакого особенного предпочтения своему предводителю.

Дополнительная литература

  1. Аdдеев Б.Ф. Философия информационной цивилизации. - M.: ВЛАДОС, 1994.
  2. Абрамов Ю.Ф. Картина мира и информация. - Иркутск: Изд-во Иркут. ун-та, 1988.
  3. Аветисян Р.Д., Аветисян Д.В. Теоретические основы информатики. - M.: РГГУ, 1997.
  4. Агеев В.M. Теория информации и кодирования: Дискретизация и кодирование измерительной информации. - M.: МАИ, 1977.
  5. Айламазян А.К., Стась E.B. Информатика и теория развития. - M.: Наука, 1989.
  6. Антонов А.В. Информация: Восприятие и понимание. - Киев: Наук, думка, 1988.
  7. Бауэр Ф.Л., Гооз Г. Информатика. Вводный курс: Пер. с нем. - M.: Мир, 1976.
  8. Бриллюэн Л. Наука и теория информации: Пер. с англ. - M.: Физматгиз, 1960.
  9. Бриллюэн Л. Научная неопределенность и информация: Пер. с англ. - M.: Мир, 1966.
  10. Брой M. Информатика: В 3 т. T.1. Основополагающее введение. - M.: Диалог-МИФИ, 1996.
  11. Быховский А. Информация и живые организмы // Наука и жизнь. - 1976. - №8.
  12. Величкин А.И. Теория дискретной передачи непрерывных сообщений. - M.: Сов. радио, 1970.
  13. Гришкин И.И. Понятие информации. Логико-методологический аспект. - M.: Наука, 1973.
  14. Дмитриев В.И. Прикладная теория информации. - M.: Наука, 1989. \5.Дубровский Д.И. Информация, сознание, мозг. - M.: Высш. шк., 1980.
  15. Ефимов А.Н. Информация: ценность, старение, рассеяние. - M.: Знание, 1978.
  16. Жалдан М.И., Квитко А.Н. Теория вероятностей с элементами информатики. Практикум. - Киев: Выща шк., 1989.
  17. Заличев H.H. Энтропия информации и сущность жизни. - M.: Радиоэлектроника, 1995.
  18. Иезуитов А. О философских основах информатики // Педагогическая информатика. - 1998. - №4. - С.54-65.
  19. Коган И.М. Прикладная теория информации. - M.: Радио и связь, 1981.
  20. Колмогоров A.H. Теория информации и теория алгоритмов. - M.: Наука, 1987.
  21. Котова E.B. Энергия и информация. - Киев: Выща шк., 1981.
  22. Кузьмин И.В., Кедрус B.A. Основы теории информации и кодирования. - Киев: Выща шк., 1986.
  23. Мазур M. Качественная теория информации. - M.: Мир, 1974.
  24. Орлов B.A., Филиппов Л.И. Теория информации в упражнениях и задачах. - M.: Высш. шк., 1976.
  25. Павлов Т. Информация, отражение, творчество. - M.: Прогресс, 1967.

  1. Петрушенко Л.А. Самодвижение материи в свете кибернетики. - M.: Наука, 1971.
  2. Полтавский Р.Я. Термодинамика информационных процессов. - M.: Наука, 1981.
  3. Пушкин В.Г., Урсул А.Д. Информатика, кибернетика, интеллект. - Кишинев: Штиинца,1989.
  4. Седов E.A. Эволюция и информация. - M.: Наука, 1976.
  5. Стратонович Р.Л. Теория информации. - M.: Сов. радио, 1975.
  6. Суханов А.П. Мир информации. - M.: Мысль, 1986.
  7. Тюхтин B.C. Теория отражения в свете современной науки. - M.: Наука, 1971.
  8. Урсул А.Д. Информация и мышление. - M.: Знание, 1970.
  9. Урсул А.Д. Проблема информации в современной науке. Философские очерки. - M.: Наука, 1975.
  10. Цымбал В.П. Задачник по теории информации и кодирования. - Киев: Выща шк., 1976.
  11. Чернавский Д.С. Синергетика и информация. - M.: Знание, 1990.
  12. Шеннон К. Работы по теории информации. - M.: Изд-во иностр. лит., 1966.
  13. Шредингер Э. Что такое жизнь? С точки зрения физики? / Пер. с англ. - M.: Изд-во иностр. лит., 1947.
  14. Юзвишин И.И. Информациология, или Закономерности информационных процессов и технологий в микро- и макромирах Вселенной. - M.: Радио и связь, 1996.
  15. Яглом А.М., Яглом И.М. Вероятность и информация. - M.: Наука, 1973.
  16. Янков M. Материя и информация. - M.: Прогресс, 1979.