Кр вуз фпт

Вид материалаКонспект

Содержание


Содержание темы
Компьютер — это программно управляемая физическая система, предназначенная для алгоритмической проработки информации, поданной с
Информация, подготовленная для проработки на компьютерах, называется данными.
Наименьшее изменение аналогового сигнала, которое регистрирует­ся устройством, осуществляющим преобразование, называется раз­реш
Рис.1.3 Примеры дискретных сигналов: двоичный (а) и троичный (б).
Дискретные сигналы, по сравнению с аналоговыми, имеют ряд важных преимуществ: помехоустойчивость, легкость восстановле­ния формы
1.2 Измерение количества информации
1.3 Кодирование символьной информации
Кодируемые (обозначаемые)
Кодирующие (обозначающие)
Последовательным кодом
Параллельным кодом
План лекции
Форма представления
Унарная — это система счисления, в которой для записи чисел используется только один знак— |
В непозици­онной системе цифры не меняют своего количественного значения при изменении их расположения в числе.
Основание системы счисления — количество
Шестнадцатеричная система счисления
Двоично-десятичная система счисления
1.5. Элементы двоичной арифметики
...
Полное содержание
Подобный материал:
  1   2   3   4   5   6   7   8



Конспект лекций 2008
КР ВУЗ ФПТ


Колесников Л.П.

Компьютерная схемотехника




Рекомендуемая литература:
  1. В.И.Лачин, Н.С.Савёлов ЭЛЕКТРОНИКА, уч.п., Ростов-на Дону, «Феникс» 2007 . 697с.
  2. М.П.Бабич, І.А.Жуков Компютерна схемотехніка, навч.посібник, МК-Прес, 2004, 412с.
  3. В.И.Бойко и др. Схемотехника электронных смстем. Цифровые устройства.СПб. 2004. 512с.


Содержание


лекции

темы

Содержание темы

Стр.

1

1

Формы изображения информации.
    • Определение и классификация информации
    • Измерение количества информации
    • Кодирование символьной информации

3

2

1
  • Системы счисления
  • Элементы двоичной арифметики

9

3

1
  • Представление чисел в ЭВМ
  • Алгебраическое представление двоичных чисел

15

4

2

Схемотехника логических элементов
  • Логические элементы и узлы ЭВМ.
  • Классификация элементов и их сравнительная характеристика
  • Общие характеристики элементов цифровых устройств

19

5

2
  • Принцип двойственности.
  • Реализация основных логических операций.
  • Базовые логические элементы

27

6

3

Схемотехника цифровых элементов
  • Основные понятия. Классификация и общие характеристики
  • Асинхронный RS-триггер и его разновидности.

33

7

3
  • Счетчики импульсов. Регистры.

41

8

4

Схемотехника основных узлов комбинационных схем
  • Шифраторы, дешифраторы и преобразователи кодов

49

9

4
  • Сумматоры
  • Цифровые компараторы

55

10

5

Схемотехника основных узлов цифровых схем
  • Специальные элементы цифровых устройств
  • Логические расширители
  • Преобразователь уровней
  • Генераторы

59

11

5
  • Цифровые запоминающие устройства.
  • Общая характеристика
  • Структуры запоминающих устройств
  • Оперативные запоминающие устройства

65

12

5
  • Цифровые запоминающие устройства.
  • Постоянные запоминающие устройства
  • Флэш-память

71

Лекция 1

Тема 1: Формы изображения информации


План лекции:
    • Определение и классификация информации
    • Измерение количества информации
    • Кодирование символьной информации

Понятие «информация» является таким же фундаментальным, как понятия «материя», «энергия» и другие философские категории. Это атрибут, свойство сложных систем, связанное с их развитием и самоорганизацией. Известно большое количество различ­ных определений информации, отличие информации от данных, знаний и пр. Мы здесь ограничимся только рассмотрением некото­рых практически важных понятий и определений.

1. Определение и классификация информации

1.1. Информатика, информация, сигналы и их представление

Широкое применение компьютеров содействует научно-техническому развитию страны. Сфера использования компьютеров охватывает практически все виды человеческой деятельности.

Компьютер — это программно управляемая физическая система, предназначенная для алгоритмической проработки информации, поданной сигналами.

В широком значении слова информация является отпечатком реального мира. Информация — это единственный ресурс жизнеобеспечения, которое не уменьшается. Более того: ее объем в данное время удваивается ежегодно.

Информация, подготовленная для проработки на компьютерах, называется данными.

Информационный процесс включает у себя такие этапы:
  1. сбор информации от разнообразных источников и представления ее в форме необходимой для введения в компьютер;
  1. передачу (пересылку) информации от источника к приемнику;
  2. хранение — процесс передачи информации во времени;
  3. обработка — систематическое выполнение операций над данными;
  4. выдачу результата проработки пользователю.

На всех этих этапах используют средства компьютерной схемотехники. К информации предъявляют такие требования:
  • корректность (однозначность восприятия);
  • ценность (полезность) и оперативность (актуальность);
  • точность, достоверность и стойкость (возможность реагировать на смены начальных данных);
  • достаточность (полнота) — наличие минимально необходимого объема информации для принятия правильного решения.

Структуру и общие свойства информационных процессов изучают в информатике, которая содержит:
  • теорию информации;
  • алгоритмические, программные и компьютерные средства обработки информации;
  • архитектуру компьютеров, системы искусственного интеллекта, вычислительные сети и др.

В теории информации изучают процессы передачи, превращения и хранения информации, куда входят:

• методы определения количества информации в сообщении;
  • рациональные средства представления информации с помощью разнообразных символов (букв, цифр и др.);
  • средства формирования, выявления и оценки параметров информационных процессов.

Упорядоченную последовательность символов (букв, цифр, математических знаков, предназначенных для передачи информации), закодированную в материальной форме, называют сообщением.

Информационное сообщение всегда связано с источником и приемником информации, соединенными каналом передачи (рис. 1.1).



Рис. 1.1 Информационная модель канала передачи

Исторически первой технологической формой получения, пе­редачи, хранения информации являлось аналоговое (непрерывное) представление звукового, оптического, электрического или другого сигнала (сообщения). Магнитная аудио- и видеозапись, фотогра­фирование, запись на шеллачные или виниловые грампластинки, проводное и радиовещание — основные способы хранения и пере­дачи информации в аналоговой форме (рис. 1.2).



Рис.1.2 Аналоговый сигнал и его дискретная (цифровая) аппроксимация (оцифровка)

Аналого-цифровое (дискретное) преобразование — АЦП (analog-to-digital conversion) заключается в формировании последо­вательностей n-разрядных двоичных слов, представляющих с задан­ной точностью аналоговые сигналы. Для выполнения этого преоб­разования вначале осуществляется квантование аналогового сигна­ла. В результате преобразования получается дискретный сигнал.

Наименьшее изменение аналогового сигнала, которое регистрирует­ся устройством, осуществляющим преобразование, называется раз­решением.

Аналого-дискретные преобразователи чаще всего изготавлива­ются в виде интегральных схем. В необходимых случаях осуществ­ляется обратное — дискретно-аналоговое (цифро-аналоговое преобра­зование — ЦАП).

Дискретный сигнал — сигнал, имеющий конечное, обычно не­большое, число значений.

Практически всегда дискретный сигнал имеет два либо три зна­чения. Нередко его называют также цифровым сигналом.

В цифровых системах используются двоичные сигналы (рис.1.3, а), имеющие значения:

(+) или (-).

Вместе с тем при передаче данных в большинстве случаев применяются троичные сигналы (рис. 1.3, б) со значениями: (+), (0), (-).



Рис.1.3 Примеры дискретных сигналов: двоичный (а) и троичный (б).

Здесь «единица» представляется отсутст­вием потенциала в канале, тогда как «нуль» характеризуется поло­жительным либо отрицательным импульсом. При этом полярность импульсов, представляющих «нули», должна чередоваться, т. е. за положительным (+) импульсом должен следовать отрицательный (-) и наоборот. В форме троичного сигнала осуществляется не только кодирование передаваемых данных, но также обеспечивается син­хронизация работы канала и проверка целостности данных.

Дискретные сигналы, по сравнению с аналоговыми, имеют ряд важных преимуществ: помехоустойчивость, легкость восстановле­ния формы, простота аппаратуры передачи.

1.2 Измерение количества информации

В качестве единицы информации Клод Шеннон предложил принять один бит (англ, bit - binary digit — двоичная цифра).

Бит в теории информации - количество информации, необходи­мое для различения двух равновероятных сообщений или «орел - реш­ка», «чет - нечет» и т. п.

В вычислительной технике битом называют наименьшую «пор­цию» памяти компьютера, необходимую для хранения одного из двух знаков 0 и 1, используемых для машинного представления дан­ных и команд.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти рав­новероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

Поскольку бит — слишком мелкая единица измерения, на прак­тике чаще применяется более крупная единица — байт, равная восьми битам.

В частности, восемь бит требуется для того, чтобы за­кодировать любой из 256 символов основного компьютерного кода ASCII (256 = 28).

Используются также более крупные производные единицы ин­формации:

Килобайт (Кбайт) - 1024 байт = 210 байт;

Мегабайт (Мбайт) - 1024 Кбайт = 220 байт;

Гигабайт (Гбайт) - 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объемов обрабатывае­мой информации входят в употребление такие производные едини­цы, как:

Терабайт (Тбайт) - 1024 Гбайт = 240 байт;

Петабайт (Пбайт) - 1024 Тбайт =250 байт;

Экзобайт (Эбайт) - = 1018 Мбайт и пр.

Для описания скорости передачи данных можно использовать термин бод.

Число бод равно количеству значащих изменений сиг­нала (потенциала, фазы, частоты), происходящих в секунду. Пер­воначально бод использовался в телеграфии. Для двоичных сигна­лов нередко принимают, что бод равен биту в секунду, например 1200 бод = 1200 бит/с.

Однако единого мнения о правильности ис­пользования этого термина нет, особенно при высоких скоростях, где число бит в секунду не совпадает с числом бод.

1.3 Кодирование символьной информации

Код (code) — совокупность знаков, символов и правил представ­ления информации.

В частности, можно различать двоичный и троичный код. Алфа­вит первого ограничен двумя символами (0, 1), а второго — тремя символами (-1, 0, +1). Сигналы, реализующие коды, обладают од­ной из следующих характеристик:
  • униполярный код (значения сигнала равны 0, +1, либо 0, -1);
  • полярный код (значения сигнала равны -1, +1);
  • биполярный код (значения равны -1, 0, +1).

Биполярные коды часто используются в каналах передачи дан­ных (рис. 1.7). Здесь единицы представляются чередующимися по­ложительными и отрицательными импульсами. Отсутствие импуль­сов определяет состояние «нуль».

Биполярное кодирование обеспе­чивает обнаружение одиночной ошибки. Так, если вместо нуля появится единица, либо единица ошибочно сменится на нуль, то это легко обнаруживается. В обоих случаях нарушается чередование полярности импульсов.



Рассмотрим методы дискретного представления информации, или кодирования (которые, надо сказать, появились задолго до вы­числительных машин).

Первым широко известным примером явля­ется Азбука Морзе, в которой буквы и цифры кодируются сочетаниями из «точек» и «тире».

Кодируемые (обозначаемые) элементы входного алфавита обычно называют символами

Символом (служит условным знаком какого-нибудь понятия, явле­ния) как правило, является цифра, буква, знак пунктуации или ие­роглиф естественного языка, знак препинания, знак пробела, спе­циальный знак, символ операции. Кроме этого, учитываются управ­ляющие («непечатные») символы.

Кодирующие (обозначающие) элементы выходною алфавита на­зываются знаками, количество различных знаков в выходном алфа­вите назовем значностью количество знаков в кодирующей последовательности для одного символа — разрядно­стью кода.

Последовательным кодом является такой, в котором зна­ки следуют один за другим во времени (например, радио- или опти­ческие сигналы либо передача по двум проводам, 2-жильному кабе­лю).

Параллельным кодом является тот, в котором знаки передаются одновременно образуя символ (например, по четырем проводам, 4-жильному кабе­лю т. е. символ передается в один прием, в один момент времени).

Применительно к азбуке Морзе (AM).
  • символами являются элементы языкового алфавита (буквы A—Z или А—Я) и цифровой алфавит (здесь — цифры 0—9);
  • знаками — «точка» и «тире» (или «+» и «-» либо «1» и «0», короче — два любых разных знака);
  • поскольку знаков два (точка и тере), AM является двузначным (бинарным, двоичным) кодом, а если бы их было три, то мы имели бы дело с троичным, тернарным, трехзначным кодом;

• поскольку число знаков в AM колеблется от 1 (буквы Е, Т) до 5 (цифры), здесь имеет место код с переменной разрядность.

Поскольку знаки передаются последовательно (электрические импульсы, звуковые или оптические сигналы разной длины, соот­ветствующие «точкам» и «тире»), AM есть последовательный код.

Первые опыты телеграфной и радиосвязи осуществлялись имен­но посредством AM, причем приемное устройство записывало им­пульсы переменной длины в виде «точек» и «тире» на движущуюся телеграфную ленту, однако уже в начале XX в. был осуществлен пе­реход на 5-разрядный (5-битовый) телеграфный код.

В табл. 1.8 приводится перечень наиболее известных кодов, не­которые из них использовались первоначально для связи, кодирова­ния данных, а затем для представления информации в ЭВМ:
  • код Бодо (IA-1 — international alphabet #1)5-разрядный код, бывший в прошлом европей­ским стандартом для телеграфной связи;
  • М-2 (российское обозначение) или IА-2 (международное обозначе­ние) — телеграфный код, предложенный Международным Комитетом по телефонии и телеграфии (МККЛТ) и заменивший код Бодо;
  • ASCII (American Standard Code for Information Interchange) —стандартный 7-битовый код для передачи данных, поддерживает 128 символов, включающих заглавные и строчные символы латиницы, цифры, специальные значки и управляющие символы. Этот код, к которому были добавлены некоторые национальные символы (10 бинарных комбинаций), был при­нят Международной организацией по стандартизации (ISO) как стандарт ISO-7;


  • EBCDIC (Expanded Binary Coded Decimal Interchange Code) 8-разрядный код, предложенный фирмой IBM для машин серий IBM/360-375 (внутреннее представление данных в памя­ти), а затем распространившийся и на системы других произ­водителей;
  • ASCII-8 — 8-разрядный код, принятый для внутреннего и внешнего представления данных в вычислительных системах. Включает стандартную часть (128 символов) и национальную (128 символов);
  • код Холлерита, предложенный для ПК (1913г.), затем использовавшийся для кодирования информации перед вводом в ЭВМ с перфокарт.

Одним из «последних слов» в процессе развития систем сим­вольного кодирования является универсальный код UNICODE (UNIversal CODE) — стандарт 16-разрядного кодирования символов.

Стандарт UNICODE разработан техническим комитетом, в ко­торый вошли представители ряда ведущих фирм. Он определяет коды, обеспечивающие идентификацию различных символов: букв, иероглифов, цифр и т. д. Код может использоваться вместо 7—8-би­товых, в том числе и ASCII. Поскольку в 16-разрядном UNICODE можно закодировать 65 536 символов вместо 128 в ASCII, то отпада­ет необходимость в создании модификации таблиц кодов. Это суще­ственно упрощает обработку текстовых файлов, хотя и несколько увеличивает их размеры

UNICODE охватывает 28 000 букв, знаков, слогов, иероглифов национальных языков мира и 30 000 мест в UNICODE зарезервиро­вано. Использование этого резерва дает возможность пользователям вводить математические или технические символы, а также созда­вать свои собственные символы.

Единая стандартизация языковых форматов наводит порядок в международном кодировании алфавитов различных языков. Здесь учтено также то, что в таких языках, как иврит и арабский, текст пишется справа налево.

При передаче данных часто используются избыточные коды, т. е. такие, которые за счет усложнения структуры позволяют повысить надежность передачи данных. К ним, в первую очередь, относятся коды с обнаружением ошибок. Чаще всего это циклические избы­точные коды. Простая разновидность такого кода — код с контро­лем по четности.

Широко используется для обнаружения ошибок в блоках данных также код контроля циклической избыточности CRC. Он определяется на основе содержимого блока данных перед его передачей, включается в одно из полей блока, а затем повторно вычисляется после передачи. Несовпадение результатов свидетель­ствует об ошибке в передаваемом содержимом.

Важное значение имеют коды с исправлением ошибок. Исполь­зование этих кодов позволяет с большой вероятностью не только обнаруживать, но и исправлять возникшие при передаче ошибки (код Хемминга, позволяющий исправлять одиночные ошибки, по­являющиеся в блоках данных).


Контрольные вопросы.

1. Как вы понимаете, что такое информация.

2. Расскажите, как вы понимаете, что такое аналоговый сигнал и способы его преобразования.

3. Расскажите, что такое дискретный сигнал, и какие значения он может принимать.

4. Какие сигналы используются в цифровых системах.

5. Расскажите о единице измерения информации бит и о других единицах измерения.

6. Какие виды кодирования вы знаете, и как они характеризуются.

7. Перечислите известные вам коды.

8. Чем отличаются разные виды кодов.

9. Что такое избыточный код и его разновидности.

10.Какие единицы измерения информации вы знаете. Перечислите их и их производные.


Лекция 2