Контрольная: Понятие информации, её аспекты
Федеральное агентство по образованию ГОУ ВПО л Российский торгово-экономический университет ОМСКИЙ ИНСТИТУТ (ФИЛИАЛ) КОНТРОЛЬНАЯ РАБОТА По дисциплине: лИнформатика и вычислительная техника Тема №10 лПонятие информации, её аспекты. Выполнила студентка 1курса Гр. М-11 Безлюднева Юлия Сергеевна № зач. кн: М-05-100 Проверила: к.э.н. Алекеева Лариса Яковлевна Омск 2005 Содержание Введение.............................3 1. Понятие информации...................4 2. Свойства информации....................5 3. Классификация информации............... 6 4. Формы представления информации.............7 5. Измерение информации..................8 Заключение.........................10 Список литературы......................11 Приложение...........................12 Введение Слово УинформацияФ латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом УинформацияФ подразумевали: УпредставлениеФ, УпонятиеФ, затем-УсведенияФ, Упередача сообщенийФ. В последние годы ученые решили, что обычное (всеми принятое) значение слова УинформацияФ слишком эластично, расплывчато, и дали ему такое значение: У мера определенности в сообщенииФ. Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона УМатематическая теория связиФ, изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях. 1. Понятие информации Информатика - наука о законах и методах накопления, обработки и передачи информации. В наиболее общем виде понятие информации можно выразить так: Информация - это отражение предметного мира с помощью знаков и сигналов [7,13]. Принято говорить, что решение задачи на ЭВМ, в результате чего создается новая информация, получается путем вычислений. Потребность в вычислениях связана с решением задач: научных, инженерных, экономических, медицинских и прочих. В обыденной жизни под информацией понимают всякого рода сообщения, сведения о чем-либо, которые передают и получают люди. Сами по себе речь, текст, цифры - не информация. Они лишь носители информации. Информация содержится в речи людей, текстах книг, колонках цифр, в показаниях часов, термометров и других приборов. Сообщения, сведения, т.е. информация, являются причиной увеличения знаний людей о реальном мире. Значит, информация отражает нечто, присущее реальному миру, который познается в процессе получения информации: до момента получения информации что-то было неизвестно, или, иначе, не определено, и благодаря информации неопределенность была снята, уничтожена. Рассмотрим пример. Пусть нам известен дом, в котором проживает наш знакомый, а номер квартиры неизвестен. В этом случае местопребывание знакомого в какой-то степени не определено. Если в доме всего две квартиры, степень неопределенности невелика. Но если в доме 300 квартир - неопределенность достаточно велика. Этот пример наталкивает на мысль, что неопределенность связана с количеством возможностей, т.е. с разнообразием ситуаций. Чем больше разнообразие, тем больше неопределенность. Информация, снимающая неопределенность, существует постольку, поскольку существует разнообразие. Если нет разнообразия, нет неопределенности, а, следовательно, нет и информации. Итак, информация - это отражение разнообразия, присущего объектам и явлениям реального мира. И, таким образом, природа информации объективно связана с разнообразием мира, и именно разнообразие является источником информации. 2. Свойства информации Информация - это отражение внешнего мира с помощью знаков или сигналов. Информационная ценность сообщения заключается в новых сведениях, которые в нем содержатся (в уменьшении незнания). Свойства информации: 1. Объективность информации Информация Ч это отражение внешнего мира, а он существует независимо от нашего сознания и желания. Поэтому в качестве свойства информации можно выделить ее объективность. Информация объективна, если она не зависит от чьего-либо мнения, суждения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Но, отражаясь в сознании конкретного человека, информация перестает быть объективной, так как преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знания или лвредности конкретного субъекта. 2. Достоверность информации Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам: преднамеренное искажение (дезинформация); искажение в результате воздействия помех (лиспорченный телефон); когда значение реального факта преуменьшается или преувеличивается (слухи, рыбацкие истории). 3. Полнота информации Информацию можно назвать полной, если ее достаточно для понимания и принятия решения. 4. Актуальность (своевременность) информации Актуальность Ч важность, существенность для настоящего времени. Только вовремя полученная информация может принести необходимую пользу. Неактуальной информация может быть по двум причинам: она может быть устаревшей (прошлогодняя газета) либо незначимой, ненужной (например, сообщение о том, что в Италии снижены цены на 5%). 5. Полезность или бесполезность (ценность) информации [7,18]. Так как границы между этими понятиями нет, то следует говорить о степени полезности применительно к нуждам конкретных людей. Полезность информации оценивается по тем задачам, которые мы можем решить с ее помощью. Самая ценная для нас информация Ч достаточно полезная, полная, объективная, достоверная и новая. При этом примем во внимание, что небольшой процент бесполезной информации даже помогает, позволяя отдохнуть на неинформативных участках текста. А самая полная, самая достоверная информация не может быть новой. 3. Классификация информации Существует две системы классификации [3,19]: иерархическая и фацетная. При иерархической классификации (рис. 1.) множество объектов последовательно разбиваются на соподчиненные подмножества. Рис. 1. Классификация информации 4. Формы представления информации Информация - очень емкое понятие, в которое вмещается весь мир: все разнообразие вещей и явлений, вся история, все тома научных исследований, творения поэтов и прозаиков. И все это отражается в двух формах - непрерывной и дискретной. Обратимся к их сущности. Объекты и явления характеризуются значениями физических величин. Например, массой тела, его температурой, расстоянием между двумя точками, длиной пути (пройденного движущимся телом), яркостью света и т.д. Природа некоторых величин такова, что величина может принимать принципиально любые значения в каком-то диапазоне. Эти значения могут быть сколь угодно близки друг к другу, исчезающе малоразличимы, но все-таки, хотя бы в принципе, различаться, а количество значений, которое может принимать такая величина, бесконечно велико. Такие величины называются непрерывными величинами, а информация, которую они несут в себе, непрерывной информацией. Слово УнепрерывностьФ отчетливо выделяет основное свойство таких величин - отсутствие разрывов, промежутков между значениями, которые может принимать величина. Масса тела - непрерывная величина, принимающая любые значения от 0 до бесконечности. То же самое можно сказать о многих других физических величинах - расстоянии между точками, площади фигур, напряжении электрического тока. Кроме непрерывных существуют иные величины, например, количество людей в комнате, количество электронов в атоме и т.д. Такого рода величины могут принимать только целые значения, например, 0, 1, 2, ..., и не могут иметь дробных значений. Величины, принимающие не всевозможные, а лишь вполне определенные значения, называют дискретными. Для дискретной величины характерно, что все ее значения можно пронумеровать целыми числами 0,1,2,...Примеры дискретных величин: геометрические фигуры (треугольник, квадрат, окружность); буквы алфавита; цвета радуги. Можно утверждать, что различие между двумя формами информации обусловлено принципиальным различием природы величин. В то же время непрерывная и дискретная информация часто используются совместно для представления сведений об объектах и явлениях. 5. Измерение информации Количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени. Одни сведения могут содержать в себе мало информации, а другие - много. Разработаны различные способы оценки количества информации. В технике чаще всего используется способ оценки, предложенный в 1948 году основоположником теории информации Клодом Шенноном. Как было отмечено, информация уничтожает неопределенность. Степень неопределенности принято характеризовать с помощью понятия УвероятностьФ. Вероятность - величина, которая может принимать значения в диапазоне от 0 до 1. Она может рассматриваться как мера возможности наступления какого-либо события, которое может иметь место в одних случаях и не иметь места в других. Если событие никогда не может произойти, его вероятность считается равной 0. Так, вероятность события УЗавтра будет 5 августа 1819 годаФ равна нулю в любой день, кроме 4 августа 1819 года. Если событие происходит всегда, его вероятность равна 1. Чем больше вероятность события, тем выше уверенность в том, что оно произойдет, и тем меньше информации содержит сообщение об этом событии. Когда же вероятность события мала, сообщение о том, что оно случилось, очень информативно. Количество информации I, характеризующей состояние, в котором пребывает объект, можно определить, используя формулу Шеннона [7,131]: I = -(p[1]*log(p[1])+p[2]*log(p[2])+...+p[n]*log(p[n])) , здесь n - число возможных состояний; p[1],...p[n] - вероятности отдельных состояний; log( ) - функция логарифма при основании 2. Знак минус перед суммой позволяет получить положительное значение для I, поскольку значение log(p[i]) всегда не положительно. Компьютер может обрабатывать только информацию, представленную в числовой форме. Обработка информации в ЭВМ основана на обмене электрическими сигналами между различными устройствами машины. Эти сигналы возникают в определенной последовательности. Признак наличия сигнала можно обозначить цифрой 1, признак отсутствия - цифрой 0. Таким образом, в ЭВМ реализуются два устойчивых состояния. С помощью определенных наборов цифр 0 и 1 можно закодировать любую информацию. Каждый такой набор нулей и единиц называется двоичным кодом. Количество информации, кодируемое двоичной цифрой - 0 или 1 - называется битом. Термин УбитФ, которое переводится как Удвоичная цифраФ. 1 бит информации - количество информации, посредством которого выделяется одно из двух равновероятных состояний объекта (значение 0 или 1). Как правило, команды компьютеров не с отдельными битами, а с восьмью битами срезу. Восемь последовательных битов составляют байт (т.е. 1 байт = 8 бит). Например, русская буква А - байт 10000000. Любую комбинацию битов можно интерпретировать как число. Например, 110 означает число 6, а 01101100 - число 108. Число может быть представлено несколькими байтами. Более крупные единицы информации составляют килобайт (Кбат), равный 1024 байта, мегабайт (Мбайт) равен 1024 килобайтам и гигабайт (Гбайт) равен 1024 мегабайтам [9, 22]. . Заключение Увеличение роли и значения информации в современном обществе безусловно велика. Одна из основных особенностей состоит в том, что информация, и особенно знание как ее высшая форма, занимает в нем совершенно особое место. Информация в ее обыденном смысле всегда играла решающую роль в жизни человека. В отличие от высших животных, у которых жизненно важная информация вырабатывается, хранится передается в основном с помощью биофизических структур, человек в своей деятельности регулируется знаниями, т. е. особой небиологической формой информации. По мере усложнения человеческой деятельности объем знаний, требуемых для ее реализации, резко возрастает. С переходом к современной стадии развития, характеризующейся нарастающим темпом технических и технологических инноваций, объем знаний, необходимых для их обоснования, разработки, реализации и распространения, должен расти экспоненциально. Подсчитано, что, для увеличения объема материального производства в два паза необходимо четырехкратное возрастание объема обеспечивающей его информации. В современных условиях отсутствие необходимых знаний может оказаться непреодолимым препятствием социального и научно- технического прогресса. Для преодоления когнитивного дефицита традиционные методы освоения знаний человеком совершенно непригодны. В этих условиях информация, обеспечивающая жизненно и исторически важные направления деятельности человека, превращается в наиболее ценный продукт и основной товар, суммарная стоимость которого зачастую превосходит суммарную стоимость продуктов материального производства. Все предшествующие изменения в производстве информации касались лишь способов ее фиксации, тиражирования и распространения. Это достигалось созданием письменности, книгопечатания и телефона, телеграфа, радио и телевидения и т.д. Однако все эти технологии не касались самого процесса создания, переработки и смысловой трансформации знания. Информационно-компьютерная революция радикально технологизирует интеллектуальную деятельность с помощью компьютеров и современных средств связи. Список литературы 1. Благодатских В.А., Волнин В.А., Поскакалов К.Ф. Стандартизация 2. Варфоломеев В.И., лПрограмные средства офисного назначения. Практикум, М., МГУК, 2001. 3. Информатика. Базовый курс // Под ред. С.В. Симоновича, СПб., 2000. 4. Компьютерные технологии обработки информации./Под. ред. С.В. Назарова. Ц М.: Финансы и статистика, 1995. 5. Левина М.П. 100% самоучитель компьютера и Интернета. Ц М.: Технолоджи Ц 3000, 2003. 6. Леонтьев В.П. Новейшая инциклопедия персонального компьютера 2003. Ц М.: Олма-пресс, 2003. 7. Миньков С.Л. Информатика:учебное пособие. Ц Томск, 2000. 8. Перри Г., лОсвой самостоятельно Microsoft Office 2000 за 24 часа.- М: лВильямс 2000 г. 9. Фигурнов В.Э. IBM PC для пользователей. 7е изд., прераб. И доп. Ц М.: ИНФА Ц М, 2002. 10. Хелворсон М., Янг М., лЭффективная работа с Microsoft Office 2000, М., лПитер, 2001. Приложение Таблица 10. Расчетно-платежная ведомость
месяц | Ф.И.О. | Разряд | начислено | удержано | к выдаче на руки | ||||
1 | 2 | итого начислено | 1 | 2 | итого удержано | ||||