Информатика. Лекции. Краткая история компьютерной техники Первые компьютеры: Z3, Colossus, eniac
Вид материала | Лекции |
- Лекция Развитие компьютерной техники, 430.69kb.
- 1. Что такое информатика?, 205.32kb.
- Положение о проведении Всероссийского игрового конкурса «Кит компьютеры, информатика,, 59.05kb.
- Учебной дисциплины «Компьютерная графика» для направления 010400 «Прикладная математика, 36.03kb.
- Урок подготавливается и проводится учителем информатики совместно с учителем предметником, 138.11kb.
- Врассказе «Краткая история парикмахерского дела», 191.64kb.
- Передача информации между компьютерами существует, наверное, с самого момента возникновения, 65.58kb.
- Характеристика предмета «Радиоприемные устройства», взаимосвязь с другими, 3189.29kb.
- Реферат по информатике История вычислительной техники, 158.06kb.
- Общие принципы построения вычислительных сетей, 1480.56kb.
Немного о физике звука
Сейчас цифровой звук окружает нас практически всюду. Компакт-диски, mp3, DVD, все эти слова прочно вошли в нашу бытовую жизнь. И все же, если Вы хотите понимать основы цифровых аудио-технологий, Вам необходимо в первую очередь разобраться со звуком как таковым, в его «исходном» аналоговом виде.
Как известно из курса физики, звук представляет собой колебания тела в упругой среде. Если быть до конца точным, то характеристики звука зависят от свойств среды, но общие принципы одни и те же. Молекулы вещества (воздуха, например) стремятся занимать равноудаленное от своих «соседей» положение. Поэтому возникающие области высокого давления («уплотнение» молекул и уменьшение расстояний между ними) вызывают стремление молекул «разойтись» на прежнее расстояние.
Если рассматривать происходящий процесс с точки зрения одной молекулы, то она будет колебаться, не перемещаясь при этом на значительное расстояние. Однако если рассмотреть область повышенного давления как единый объект, то Вы увидите перемещение волны давления.
Основными составляющими звука являются вибрирующие объекты и волны изменения давления. Приведем простой пример. Удар в барабан вызывает вибрацию мембраны, которая создает волну давления. Эта волна перемещается по воздуху до тех пор, пока не надавит на барабанную перепонку, чем в свою очередь заставит ее вибрировать. А наш мозг уже преобразует эти вибрации в слышимый звук. Поскольку звуковые колебание распространяются не мгновенно, а с конечной скоростью, то их распространение принято называть звуковой волной.
Основные свойства звука
Звуковые колебания несут в себе информацию о таких свойствах звука, как высота, длительность и громкость.
Высота звука представляет собой восприятие мозгом частоты колебаний. Далеко не все колебания будут восприняты нами как звук. Большинство людей способно воспринимать звуковые колебания с частотой от 20 до 18 000 раз в секунду (от 20 Гц до 18 кГц, Гц — единица измерения частоты, 1 Гц = 1 раз в секунду, 1 кГц = 1000 Гц). Чем чаще колебания, тем выше воспринимаемый нами звук. Например, комар совершает от 300 до 500 полных взмахов крылышками в секунду, то есть совершает колебания с частотой 300-500 Гц, которые и воспринимаются нами как «комариный писк».
Длительность звука представляет собой восприятие продолжительности колебаний.
Громкость звука — восприятие амплитуды колебаний. Единицей измерения громкости является децибел, но это величина относительная. Удвоение амплитуды звуковых колебаний соответствует увеличению громкости на 6 децибел, и наоборот.
Существуют две наиболее распространенные шкалы громкости. Согласно первой из них, абсолютной, за ноль децибел принимается уровень громкости, находящийся на пороге слышимости.
Однако обычно пользуются другой шкалой, согласно которой ноль децибел — это максимальный уровень громкости, который данное звукозаписывающее устройство может отобразить без искажений. Таким образом, при записи звука 0 дБ соответствует максимальному значению амплитуды, а все более тихие звуки имеют отрицательные значения амплитуды. Положительный входной уровень громкости является перегрузкой, то есть сигнал будет записан неправильно, и при его воспроизведении будут слышны характерные высокочастотные искажения.
Спектр звука, тембр звучания и аналоговый метод записи
Звуковые колебания обычно бывают сложными. Например, если взять на скрипке ноту «ля» первой октавы (частота 440 Гц), то в колебаниях струны будут присутствовать также частоты 880, 1320, 1760, 2200 Гц и некоторые другие. При этом звук каждой частоты будет иметь определенную громкость, не зависящую от громкости звуков на других частотах. Амплитудно-частотное соотношение всех составных частей сложного колебания принято называть спектром звука, а звуки, соответствующие каждой присутствующей в сложном колебании частоте, — спектральными составляющими. Набор спектральных составляющих определяет тембр звучания.
Звуковые колебания, в которых присутствует всего одна частота, называются синусоидальными.
Если мы изобразим их на графике в виде зависимости амплитуды сигнала от времени, то полученный график будет представлять собой синусоиду.
Любое сложное колебание может быть представлено в виде суммы нескольких синусоидальных колебаний, имеющих различные частоты и амплитуды. Подобное графическое представление звуковых колебаний принято называть волновой формой звука.
Чтобы тот или иной звук передать на значительное расстояние, механические звуковые колебания преобразовывают в электрический сигнал. Изменение давления легко измерить с помощью простейшего «микрофона». Достаточно прикрепить к тонкой пленке проволочный виток и поместить рядом магнит. Тогда при изменении давления положение пленки будет также меняться, что в магнитном поле вызовет возникновение в проволочном витке переменного электрического тока. Значения этого сигнала будут соответствовать колебаниям давления воздуха. Возможность преобразования звука в колебания электрического тока лежит в основе многих знакомых Вам устройств, например радио, телефона и магнитофона. Кроме того, необходимо отметить, что этот процесс обратим. Колебания электрического тока, подаваемого на проволочный виток, заставят колебаться пленку, что в свою очередь создаст звуковую волну.
Цифровой метод записи звука и его преимущества
Аналоговый метод записи звука достаточно точно передает первоначальную звуковую картину, однако обладает рядом недостатков. Из основных недостатков аналогового метода в первую очередь стоит отметить высокий уровень шумов и помех в записи. Характер шумов таков, что иногда они оказываются даже «громче» некоторых участков полезного сигнала, а кроме того имеют широкий спектр, что не позволяет просто отфильтровывать их на выходе. Кроме того, качество аналоговых записей заметно падает в процессе хранения.
По этим и некоторым другим причинам предпочтительнее использовать цифровые методы записи, которая в большей степени свободна от шумов, допускает более гибкую обработку, а также позволяет хранить записанные звуковые данные без потери качества. А главное, цифровой сигнал можно хранить и обрабатывать с помощью компьютера.
Чтобы представить звуковые колебания в цифровом виде, звук надо оцифровать. Для этого используют так называемые аналого-цифровые преобразователи (АЦП). Как видно из волновой формы звукового сигнала, в любой момент времени амплитуда сигнала имеет конкретное значение, которое может быть измерено и выражено некоторым числом. Здесь мы сталкиваемся с основной проблемой оцифровки звука — непрерывностью звукового сигнала. Для точного цифрового представления сигнала необходимо было бы измерить амплитуду в каждый момент времени, а значит произвести бесконечное число измерений, более того, шкала измерения амплитуды тоже должна была бы содержать бесконечное число градаций. А значит и для хранения полученных измерений нам потребовался бы бесконечный объем памяти.
Поэтому звуковую информацию в цифровом виде хранят не в непрерывном, а в дискретном виде. Сегодня обычно предполагают, что дискретная звуковая информация хранится в виде двоичных чисел — то есть в привычном нам цифровом формате. Однако, помимо этого способа, дискретные данные могут представляться и в другом виде.
Способы дискретного представления звука
В свое время дискретизация была придумана инженерами в качестве решения поставленной перед ними задачи — передачи двух и более сигналов по одной линии. В качестве одного способа решения было предложено «нарезать» сигналы «кусочками» и передавать эти фрагменты сигналов по одному каналу передачи данных. Тогда приемнику данных следовало объединять получаемые фрагменты и восстанавливать исходные сигналы.
При использовании такого подхода звуковой сигнал преобразуется в последовательность импульсов, амплитуда которых соответствует громкости сигнала в данный момент времени. Отсюда и пошло название ампилтудно-импульсная модуляция (АИМ).
При прохождении сигнала по реальным линиям связи амплитуда сигнала часто заметно ослабевает, а вот длительность сигнала, наоборот, передается практически без искажений. Так появился метод, согласно которому аналоговый звуковой сигнал преобразуется в последовательность импульсов заданной длительности, что заметно понижает уровень возможного искажения сигнала. Этот метод получил название широтно-импульсной модуляции (ШИМ).
Существует и третий способ — представление каждого из измеренных значений в виде последовательности импульсов, соответствующих двоичному коду этого измеренного значения. Данный метод получил название импульсно-кодовой модуляции (ИКМ).
Существенной проблемой последнего метода является сложность установления момента конца последовательности импульсов, соответствующих одному измеренному значению, и начала другой последовательности. Однако эта проблема легко решается, если вместе с сигналом передавать вспомогательный сигнал для синхронизации, или сразу передавать сигнал самосинхронизирующимся. Тогда приемное устройство само сможет определить момент начала очередной последовательности.
Частота дискретизации и амплитудное разрешение
У амплитудно-импульсной модуляции оказалось одно существенное преимущество. Аналоговый сигнал при наличии быстрого переключателя легко представляется в виде амплитудно-импульсной модуляции. Точно так же просто производится и обратное преобразование — из амплитудно-импульсной модуляции в аналоговый эквивалент сигнала (для этого достаточно воспользоваться аналоговым фильтром низких частот). Поэтому именно она и стала широко применяться в аналого-цифровых преобразователях.
Естественно, что в реальных условиях мы не можем измерить все возможные значения, а значит, вынуждены производить измерения, используя конечное число амплитудных градаций, называемых амплитудным разрешением, а также через определенный промежуток времени, то есть конечное число раз. Число измерений, производимых в течение 1 секунды, называется частотой дискретизации.
Легко видеть, что как амплитудное разрешение, так и частота дискретизации влияют на качество цифрового представления звукового сигнала. И если увеличение амплитудного разрешения очевидным образом улучшает качество представления звукового сигнала, то выбор частоты дискретизации представляет определенную задачу, так как с увеличением частоты дискретизации растет значительно и поток данных, которые необходимо обрабатывать и хранить.
В этом случае возникает вопрос об определении промежутка времени, через который производятся измерения, чтобы полученный дискретный сигнал был максимально «похож» на исходный аналоговый.
Теорема Найквиста-Котельникова, квантование амплитуды
Оптимальный выбор частоты дискретизации представляет собой серьезную задачу, ответ на которую дает нам теорема Котельникова-Найквиста. Согласно этой теореме для отображения звукового сигнала некоторой частоты F необходима дискретизация исходного сигнала с частотой не менее 2F. Величина, соответствующая половине частоты дискретизации (то есть в нашем случае F), называется пределом Найквиста.
Таким образом, так как человеческое ухо воспринимает звук с частотой до 20 кГц, то необходимая минимальная частота дискретизации звука должна была бы быть не менее 40 кГц, чтобы полученный цифровой сигнал не потерял часть слышимого человеческим ухом спектра. Сейчас наиболее часто при оцифровке звука используются частоты дискретизации 44.1 кГц, 48 кГц и 96 кГц. Например, для профессиональных музыкантов частота дискретизации 96 кГц в настоящее время уже практически стала стандартом представления цифрового звука.
Амплитудное разрешение определяется числом амплитудных градаций, используемых при квантовании амплитуды звукового сигнала (то есть при представлении амплитуды сигнала в цифровом виде). Еще недавно при оцифровке звука использовали 65536 амплитудных градаций. Так как для представления чисел от 0 до 65536 необходимо 16 бит информации, то часто говорят о «16-битном разрешении», или «16-битном звуке». В настоящее время звук обрабатывают, как правило, в 24-битном или 32-битном разрешении. А для профессиональных музыкантов, работающих с «цифрой», 24-битное представление значения амплитуды звукового сигнала стало стандартом представления цифрового звука.
Наложение спектров и отношение сигнал/шум
Однако, оцифровка звука имеет и свои побочные эффекты. И в первую очередь среди них стоит отметить наложение спектров.
Приведем простой пример. Представьте себе, что Вы оцифровываете звук с частотой дискретизации 8 кГц. Тогда предел Найквиста будет равен 4 кГц. И если Вы попытаетесь оцифровать сигнал с частотой 5 кГц (превышающей на 1 кГц предел Найквиста), то при воспроизведении сигнала получите звук частотой 3 кГц, что будет на 1 кГц ниже предела Найквиста, а главное — не будет соответствовать исходному сигналу. Более того, помимо частоты 3 кГц у полученного сигнала будет бесконечно много других «ложных» частот, расположенных попарно на расстоянии 8 кГц друг от друга (4 ± 1 кГц, 8 ± 1 кГц, 12 ± кГц и так далее).
Чтобы предотвратить появление проблем подобного рода, необходимо избегать оцифровки сигналов, частота которых превышает предел Найквиста для используемой частоты дискретизации.
Вторая проблема связана уже с квантованием амплитуды. Так как любое цифровое устройство может оперировать лишь ограниченным количеством значений, то исходные моментальные значения амплитуды аналогового сигнала неизбежно округляются, чем вызывают погрешности квантования. Тогда окончательный сигнал, получившийся в результате оцифровки, можно рассматривать как сумму исходного аналогового сигнала и сигнала погрешности (шума квантования).
Говоря об амплитуде сигнала погрешности, обычно используют термин уровень шума. А основным вопросом оказывается отношение громкости шума к громкости полезного сигнала, то есть то, что называется отношением сигнал/шум. Чем выше это отношение, тем лучше.
Важно отметить, что отношение сигнал/шум зависит от содержания самой записи. Часто при обсуждении отношения сигнал/шум предполагается, что используется сигнал максимально допустимой громкости. Очевидно, что если Ваш сигнал не обладает предельной громкостью, то отношение сигнал/шум будет меньше (хуже). В самом худшем случае очень тихий звук вызовет возникновение ошибки, уровень громкости которой будет практически совпадать с уровнем исходного сигнала. В таком случае говорят уже не об ошибке, а искажении.
Ограничение сигнала, передискретизация и оверсэмплинг
В свою очередь очень громкие также сигналы подвержены искажению, называемому ограничением сигнала. В результате вершины пиков звуковой волны становятся плоскими.
Искажение обычно более заметно, чем шум. Одной из причин этого является то, что искажение повторяет сигнал. В отличие от случайного шума искажение — меняющаяся ошибка, привлекающая к себе внимание.
С дискретизацией связаны и другие «неприятности». Одной из них является процесс передискретизация сигнала с повышением, или наоборот понижением частоты дискретизации. Каждая из задач представляет собой отдельную проблему. Так при понижающей передискретизации необходимо предварительно отфильтровать звуковой сигнал, чтобы исключить из него частоты, превышающие предел Найквиста для более низкой частоты дискретизации. Если же стоит задача повышающей передискретизации, то можно воспользоваться интерполяцией, то есть последовательно анализировать исходный сигнал и определять способ, с помощью которого задавать недостающие значения. Более простой подход заключается в повторении имеющихся значений нужное число раз. Однако и в этом случае возникают помехи, которые необходимо отфильтровать до процесса передискретизации.
С дискретизацией звукового сигнала связано еще такое понятие как оверсэмплинг (oversampling). Оверсэмплингом называют дискретизацию сигнала с «избыточной» частотой дискретизации, превышающей необходимую частоту, выбранную с помощью теоремы Котельникова-Найквиста. Суть оверсэмплинга состоит в том, что если повысить частоту дискретизации (например, вдвое), оставив амплитудное разрешение неизменным, то уровень шумов квантования хоть и останется тем же, но его спектр будет шире (он будет простираться от 0 Гц до новой, большей частоты дискретизации, деленной на два). В то же время полезный сигнал будет иметь прежний спектр, а значит спектр шума станет в два раза шире спектра сигнала при прежней мощности. Таким образом, мощность шумов квантования «внутри» спектра полезного сигнала упадет в два раза. Другими словами отношение сигнал/шум квантования в полосе полезного сигнала улучшится в два раза (на 3 дБ). Этот процесс можно при желании продолжить. Тогда в случае четырехкратного увеличения частоты дискретизации (четырехратный оверсэмплинг) отношение сигнал/шум улучшится уже на 6 дБ.
Дизеринг и нойз шейпинг
К сожалению, шумы квантования далеки от такого «идеального» случая. Поэтому зачастую они оказываются зависимыми от исходного сигнала. На деле это означает, что реальный динамический диапазон (отношение сигнал/шум) увеличивается вдвое по отношению к идеальному (например, для 16-битного разрешения отношение сигнал/шум уже составляет 48 дБ вместо 96 дБ, которые должны были бы быть в теории). Таким образом, возникает необходимость предварительной обработки звукового сигнала, чтобы предотвратить возникновение заметного шума на маленьких уровнях громкости. Однако сжатие динамического диапазона зачастую просто невозможно без серьезной потери качества исходного сигнала, поэтому искусственное сжатие динамического диапазона неприемлемо. В таких случаях применяется дизеринг (dithering), который позволяет частично заменить эффект «грязного» звучания на незначительное увеличение высокочастотного шума. Суть дизеринга заключается в том, что к исходному сигналу добавляется небольшой (обычно высокочастотный) шумовой сигнал, за счет чего шумы квантования становятся случайными, хотя их общий уровень несколько вырастает.
В качестве еще одного способа борьбы возникающими в процессе дискретизации шумами квантования можно привести нойз шейпинг (noise shaping). Нойз шейпинг заключается в попытке управления тем шумом, который возникает в процессе квантования амплитуды. Это достигается за счет специального округления значения амплитуды, берущегося при квантовании, в ту или иную сторону. Таким образом, можно добиться того, чтобы спектр получающегося в итоге шума квантования был сосредоточен большей частью в области частот, не воспринимаемых на слух (более 20 кГц). Другой способ применения нойз шейпинга заключается в том, чтобы спектр шума квантования имел форму обратную кривой чувствительности слухового аппарата. Тогда шум наибольшей мощности будет в той части частот, к которым наименее чувствителен слух человека, и наоборот, в области частот, к которой слух наиболее чувствителен, мощность шумов будет минимальной.
Джиттер
Последним из основных понятий, связанных с цифровым звуком, является джиттер (jitter). Чтобы понять суть джиттера, необходимо знать, что цифровой звук передается между устройствами в виде последовательности 0 и 1, что в виде электронного сигнала представимо в виде сигнала с прямоугольной формой волны.
Джиттер — это колебания крутизны фронтов сигнала, возникающие из-за изменения скорости передачи цифровых отсчетов. Физически цифровой джиттер по влиянию, оказываемому на воспроизводимый звук, аналогичен детонации — дрожанию скорости магнитной ленты в аналоговом магнитофоне из-за несовершенства механической части. Однако, вносимые цифровым джиттером искажения намного заметнее.
В современных цифровых устройствах основным источником джиттера является АЦП. Дело в том, что частота дискретизации в АЦП обычно задается кварцевым генератором, которым присущи фазовые шумы. Все это приводит к тому, что моменты времени получения цифровых отсчетов расположены на временной оси не абсолютно равномерно. Это приводит к размыванию спектра сигнала и ухудшению отношения сигнал/шум. На высокочастотных системах джиттер может также привести к пульсации амплитуд.
Другим источником возникновения джиттера является передача сигнала от одного цифрового устройства к другому. В этом случае джиттер возникает из-за неоднородности среды передачи. Джиттер слышен при мониторинге во время передачи, когда частота дискретизации принимающего устройства синхронизирована с частотой передающего. Если джиттер не настолько силен, чтобы появились щелчки или треск, то на записи он не сохраняется, поскольку воспроизводящее устройство регенерирует тактовую частоту при помощи собственного генератора. С этим связан известный парадокс цифрового звука, когда копия может звучать лучше оригинала. Бороться с джиттером можно, например, использованием качественной коммутации (в том числе согласованием сопротивлений, чтобы не было отражений сигнала) и применением устройств, регенерирующих цифровой сигнал. Также необходимо отключать внешнюю синхронизацию частоты дискретизации устройства при воспроизведении, если подобная синхронизация не требуется.
Одно-, двух- и многоканальный звук
Еще одним важным параметром цифрового звука является количество каналов, используемых для его записи. Дело в том, что звук, издаваемый одним и тем же источником, мы слышим по-разному левым и правым ухом. В частности временная задержка между моментами получения сигнала левым и правым ухом позволяет нам, например, позиционировать источник звука в окружающем нас пространстве. Поэтому для более «правильного» представления звукового сигнала требуется больше, чем «один вариант» слышимого нами звука.
И если на заре развития цифровой звуковой техники еще пользовались одним каналом для записи звука (моно звук), то уже давно стандартом представления цифрового звукового сигнала стал стерео звук, когда для записи используются два канала — левый и правый. Таким образом, звук представляется в виде двух составляющих его сигналов (обычно не очень сильно, но все-таки различающихся), которые «складываясь» дают исходный звуковой сигнал. Естественно, что воспроизводящая звук техника должна поддерживать использованные при его записи технологии. Так моно магнитофон с одним динамиком не сможет правильно воспроизвести стерео сигнал, так как для воспроизведения последнего потребуются как минимум два динамика (по одному на каждый канал).
В настоящее время в цифровой области стремительно развиваются технологии многоканального представления звукового сигнала. В первую очередь подобные системы нашли применение в развлекательной области — кино и играх. И именно киноиндустрия положила начало многоканальному звуку, начав использовать подобное представление звуковых сигналов в своих кинотеатрах.
На настоящий момент основным цифровым стандартом многоканального звука является Dolby Digital. При записи звука в стандарте Dolby Digital используется шесть цифровых каналов звука. Каналы делятся на левый, правый, центральный, левый окружающий, правый окружающий и LFE (Low-Frequency Effects) — низкочастотный канал и канал эффектов. Существуют и другие форматы представления многоканального звука, однако ни один из них не получил такого широкого распространения как Dolby Digital.
Стандарт CD-Audio
И, конечно, нельзя напоследок не сказать несколько слов о том первом стандарте цифрового звука, который в буквальном смысле совершил прорыв в сознании людей. Речь идет без сомнений о стандарте CD-Audio, с которого по большому счету и началась эра всепоглощающего проникновения цифрового звука в нашу повседневную жизнь.
Музыкальный компакт-диск, он же CD-Audio, был изобретен, стандартизирован и введен в обращение в начале 80-х фирмами Sony и Philips. Основными характеристиками цифрового звука, заложенными в этот стандарт, стали частота дискретизации 44.1 кГц и 16-битное представление амплитуды сигнала. Выбор подобной частоты дискретизации был обусловлен необходимостью обеспечить совместимость с разработанными ранее аудиосистемами, работавшими с видеокассетами.
Первым и несомненным плюсом разработанного компакт-диска стала беспрецедентная долговечность. Ни один более ранний носитель, например магнитофонные ленты или пластинки, не мог сравниться с ним по этому показателю. Отсутствие механического контакта между диском и считывающим устройством позволяло эксплуатировать компакт-диски по несколько раз в день и делать это годами. Даже появление небольших царапин никогда больше не досаждало пользователю растущим уровнем шумов и дефектов.
Вторым плюсом стали более компактные размеры диска, что значительно упрощало эксплуатацию нового носителя. Появилась возможность привнести новый стандарт в салон автомобиля, так как все попытки конструкторов использовать в серийных масштабах в салоне автомобиля звуковую аппаратуру высокого класса (большие катушечные магнитофоны и виниловые проигрыватели) окончились неудачей.
Еще одним пунктом превосходства Audio CD над винилом стало качество звучания. В 1980 году «прогрессивность» нового формата был заявлена величинами динамического диапазона сигнала и отношения сигнал/шум — более 90 дБ, что вместе с искажениями менее 0,01 % означало крах виниловой пластинки.
Однако, у компакт-диска был и один недостаток, замеченный чуть позже. Верхняя частота диапазона воспроизведения компакт-диска была равна половине его частоты дискретизации, то есть 22.05 кГц, в то время как у аналоговых носителей этот показатель был гораздо выше. И хотя частоты выше 19-20 кГц уже относятся к ультразвуку и относятся к «неслышимым», обертональные составляющие большинства акустических инструментов лежат именно в этой так называемой «неслышимой» области и оказывают влияние на впечатление от прослушивания. Если их нет, запись кажется "неживой".
Поэтому не за горами появление новых стандартов цифрового представления аудио информации, и можно с уверенностью сказать, что самое интересное в цифровом звуке еще только начинается.
Интересные факты
Стерео
Термин «стерео» (от греческого stereos — пространственный, объемный), в настоящее время прочно ассоциируется с двумя каналами для записи звука. Однако, изначально он имел более широкий смысл. Первые эксперименты с объемным звучанием, проходившие в компании Bell Labs в тридцатые годы прошлого столетия, проводились с тремя каналами. В кино окружающий звук (даже если там использовалось более двух дорожек) тоже долгое время называли «стерео». В общем, стерео называли все, что обеспечивало «пространственное» звучание (то есть все то, что не было «моно»). Ассоциация слова «стерео» именно с двухканальной записью звука была вызвана тем, что первые стереопластинки были именно с двумя каналами (больше просто не позволяли технологии того времени), и появившееся в 1961 году стереофоническое FM-радиовещание также было двухканальным. Однако в кинопроизводстве еще долго пользовались термином «стерео» для обозначения многоканальных фонограмм к фильмам. Даже вышедшая в 1974 году четырехканальная система Dolby называлась Dolby Stereo. Термин «surround sound» был придуман, когда многоканальные звуковые дорожки к фильмам стало возможно проигрывать в домашних условиях (с помощью видеомагнитофона и декодера Dolby Surround). Так как у широкой публики к тому времени слово «стерео» прочно ассоциировалось с двумя каналами, а для продвижения технологии на рынок требовалось что-нибудь особенное в самом названии, то этим особенным и стало словосочетание «surround sound».