Концепции современного естествознания контрольные работы

Вид материалаДокументы

Содержание


11. Деление атомного ядра
12. Динамические и стохастические системы.
14. Ионизирующее излучение (радиация)
15. Квантовая механика
Подобный материал:
1   2   3   4   5   6   7   8   9   ...   22

11. Деление атомного ядра. а) спонтанное деление – процесс самопроизвольного распада тяжелых радиоактивных элементов на два ядра-осколка и два или три нейтрона. Этот процесс имеет для природных радиоизотопов урана или тория вероятность на несколько порядков меньшую, чем свойственный им же альфа-распад, однако для ряда искусственных очень нестабильных трансурановых элементов – это основной канал распада; б) вынужденное деление – процесс деления атомных ядер тяжелых элементов под действием внешних нейтронов различной энергии, захватываемых ядром и переходящим при этом в возбужденное состояние с образованием впоследствии двух ядер-осколков и двух или трех нейтронов.

Конкурирующим процессом при захвате нейтрона недостаточной энергии может быть бета-распад возбужденного ядра. Способность к делению тяжелых ядер нейтронами характеризуется т.н. параметром деления – отношением квадрата атомного номера к атомной массе: Р=Z2, который, как следует из опыта, должен быть несколько больше 36.

При подходящих условиях и наличии т.н. критической массы соответствующего радионуклида (например, урана-235, плутония-239 и т.п.) возникает и лавинообразно нарастает цепная реакция деления, вовлекающая в этот процесс практически все атомы, сосредоточенные в данном объеме, и приводящая к ядерному взрыву. В энергетических ядерных реакторах, используемых на АЭС, посредством специальных устройств, конфигурации активной зоны и оптимальной концентрации делящегося материала достигается медленное, долговременное и управляемое энерговыделение. При этом исходная смесь изотопов урана постепенно «выгорает», превращаясь в самые разнообразные радиоактивные продукты деления (до 200 радиоизотопов различных элементов), среди которых два долгоживущих: стронций-90 и цезий-137 с периодами полураспада примерно 28 лет и 32 года.

Эти радиоизотопы представляют серьезную экологическую опасность как химические аналоги жизненно важных элементов – соответственно кальция (двухвалентный) и натрия с калием (одновалентные). Эти радионуклиды включаются вместе с ними в соответствующие биохимические реакции и проникают в трофические цепочки (см.), доходя до человека. Проведение ядерной реакции деления со сдвигом в сторону конкурирующего бета-распада (реакторы-размножители) позволяет из природного урана получать долгоживущий трансурановый радиоизотоп плутоний-239 (период полураспада 24000 лет) с высоким значением параметра деления (36,97), удобный для создания ядерного оружия. (См. также: Ядерный реактор).


12. Динамические и стохастические системы.

Динамическая система – система элементов различного типа, причины движения которой можно свести к действию каких-либо конкретных движущих сил, которые, в свою очередь, можно свести к некоторой равнодействующей (эффективной) силе, обусловливающей закономерности развития этой системы. Все свойства динамических систем могут быть выражены с помощью одной функции – т.н. гамильтониана, который с учетом начальных условий конкретно поставленной задачи позволяет однозначно и непротиворечиво описать эволюцию системы в пределах любого интервала времени. Физический смысл гамильтониана (или функции Гамильтона) – это полная энергия системы, т.е. сумма кинетической и потенциальной энергии, всегда остающаяся постоянной (инвариант, сохраняющийся при любых изменениях во времени координат и импульсов всех элементов внутри данной системы). Математическая формулировка задач динамики, соответствующая гамильтонову формализму, дает интегрируемые уравнения и системы уравнений, позволяющие получать точные решения задач механики с любым количеством элементов.

Это явилось математической основой подхода к описанию мира, получившего название механистического детерминизма (П.С. Лаплас, Г.Р. Кирхгоф и др.), сводящего движение и изменения любого типа к только механическому движению, и трактующему весь мир как динамическую систему отношений, допускающую точные и однозначные прогнозы развития. Однако в начале 20-го века было показано (А. Пуанкаре и др.), что понятие динамических систем является физической идеализацией, с высокой точностью моделирующей и математически описывающей ограниченный круг реальных механических процессов, причем главным образом для тех систем, к которым можно применить приближенное допущение о внутренней динамической стабильности и однородности. Реальные системы оказались принципиально сложнее, поскольку наличие в их поведении внутренней нестабильности и стохастичности не поддавалось формализму динамики, а требовало статистических методов моделирования и соответствующей этому вероятностной интерпретации.

Стохастический (от греч. угадывать), то же, что неопределенный, случайный, вероятностный. Интересно то, что первоначальный смысл греческого слова «стохастикос» – это умеющий целить, попадать, умеющий верно отгадывать, судить, - в европейском мышлении трансформировался в противоположный. Понятие стохастический процесс или стохастическая система пменяется по отношению к каким-либо процессам, событиям или сложным системам, закономерности поведения которых не описываются детерминистскими законами ньютоновской динамики, а подчиняются статистическим моделям.


13. Информация – потоки вещества и (или) энергии, которые, упорядочиваясь в процессе восприятия органами чувств человека или регистрирующими приборами, расширяющими пределы восприятия, могут быть в соответствующем знаково-семантическом пространстве (языке) перекодированы в смыслосодержащие структуры. Бытовое и общекультурное представление об информации наделяет это понятие очень широким смысловым спектром. В житейском, повседневном смысле оно означает некоторое количество сведений, которое человек получает из окружающей среды – из своих наблюдений, от других людей, книг, СМИ и т.д. В результате, с помощью этих сведений человек упорядочивает свои отношения с окружающим миром, а человечество в целом создает информационно-культурное пространство, в котором осуществляются социальные процессы и которое постепенно превращается как бы во вторую природу, преодолевающую хаос и энтропию первой природы.

По определению известного отечественного культуролога Ю.М. Лотмана вся человеческая культура есть устройство, создающее информацию. Это, конечно, структурно-сциентистская трактовка культуры, которая однако, позволяет использовать методы естествознания для изучения соответствующих аспектов культурных явлений в той их части, которая естественным наукам доступна. В этом контексте любое произведение, созданное человеком, или любой природный феномен, осваиваемый человеком в сфере языка, или природная структура, преобразованная людьми с определенной целью, несут информацию постольку, поскольку могут быть восприняты и осмыслены в уже сложившейся системе образов, представлений и понятий. Язык, понимаемый в самом широком смысле этого слова, служит для закрепления информации и является открытой активной средой, в которой осуществляются процессы спонтанного смыслопорождения, т.е. процессы самоорганизации семантически упорядоченных информационных структур, ранее в этой системе не существовавших. Такое толкование поведения знаковых систем (или семиосфер) вписывается в общую синергетическую модель, описывающую закономерности развития сложных неравновесных самоорганизующихся систем любого типа.

Содержание понятия информации в естественных науках неоднозначно и зависит от того научного контекста, в котором оно определяется. Так, в кибернетике обычно абстрагируются от содержательной (смысловой) стороны информации и рассматривают процессы взаимодействия элементов любой кибернетической системы, обеспечивающие устойчивость и управляемость этой системы, с точки зрения теории передачи сигналов, когда на первый план выступает проблема оптимальной взаимной передачи и приема данных о состоянии отдельных элементов системы. При этом материальная форма, в которую облечены эти сведения, имеет второстепенное значение и является делом техники (в искусственных системах) или определяется спецификой тех или иных естественных природных сред (сообществ организмов, ценозов, экосистем (см.) и даже всей биосферы в целом).

В естествознании информация трактуется как некоторая совокупность данных, полученных в процессе эксперимента в прямых или косвенных измерениях, а также в результате обработки и обобщения данных в рамках какой-либо гипотезы или теории. В этом смысле то, что недоступно измерениям, что не является источником научных данных, не может быть предметом естествознания и научной информацией не обладает. С такой точки зрения, все явления природы, недоступные наблюдению невооруженными органами чувств, содержат метаинформацию, которая актуализируется при использовании человеком соответствующих приборов, расширяющих пределы восприятия скрытых энергетических потоков. Например, количество информации «оптического» происхождения можно увеличить, применяя, помимо телескопа и микроскопа, детекторы инфракрасного, ультрафиолетового и рентгеновского излучения, недоступного человеческому глазу. В гуманитарной сфере любой информации, кроме смыслового содержания, присущ еще и ценностный аспект, зависящий от системы мировидения, в которую эта информация встраивается.

Отвлекаясь от смыслового и ценностного аспектов сообщения, можно любую информацию формально рассматривать как совокупность сведений о некотором определенном событии, которое в принципе может произойти в рассматриваемой системе. Событием в кибернетике называют состояние системы в определенный момент времени. Передаваемые и принимаемые сведения содержат данные о том, в каком из множества возможных состояний находилась эта система в конкретный момент времени. Эти данные могут быть закодированы определенным образом с использованием некоторого количества элементарных символов, составляющих алфавит кода, а число таких символов называется основанием кода. Из теории передачи сообщений следует, что каким бы ни было основание используемого кода, длина последовательности сигналов, необходимой для передачи некоторого конкретного сообщения, прямо пропорциональна логарифму числа всех возможных сообщений.

Такой формализованный подход к информации позволяет производить измерение её количества, но без учета смысла, а только с точки зрения возможности кодировки её при помощи последовательности сигналов, построенной, как принято в кибернетике, на основании двоичной системы счисления, где существуют только числа 0 и 1 – т.н. двоичный код. Тогда за единицу измерения принимается то количество информации, которое заключается в одном двоичном разряде и определяется выбором одного из двух возможных сообщений, т.е. «да / нет», - эта единица называется бит. Эти соображения привели К. Шеннона к выводу, что количество информации в битах Н связано со степенью неопределенности в сообщении следующей формулой: H=log2 N. Здесь она приводится в упрощенном виде для случая, когда все «трактовки» равновероятны, а 1/N - вероятность каждого варианта.

Данная формула аналогична выражению для энтропии (см.) как мере беспорядка или хаоса в термодинамической системе, полученному Л. Больцманом в рамках статистической физики. Обнаружившая себя аналогия далеко не случайна, - она вскрывает факт глубокой связи между теорией информации и статистической физикой и вводит информатику, как науку, в контекст всего естествознания. Отсюда также следует, что устойчивая циркуляция потоков информации в живых и неживых системах обеспечивает их стабильность и управляемость, а получение информации о внешнем мире в процессе человеческой деятельности приводит к упорядочиванию отношений в суперсистеме «человек-природа».

Существующая в настоящее время сциентистская тенденция абсолютизировать понятие информации и распространять его на все без исключения процессы, в которых существуют хотя бы некоторые формы самоорганизации, связана с желанием иметь некоторый универсальный научный язык, описывающий любые системные феномены как в неживой, так и в живой природе. Это, в целом, весьма удобно, т.к. данный подход позволяет одним термином охватить широкий спектр конкретных понятий, и к тому же поддается количественному описанию. Однако все процессы, происходящие в неживых системах, могут быть вполне адекватно описаны и традиционным способом - на языке фундаментальных законов сохранения и соответствующих конкретному случаю физико-химических законов, и не требуют никаких дополнительных понятий.

В то же время в области изучения системных закономерностей эволюции живых организмов (и тем более социально-культурных феноменов человеческой истории), принципиально необходима категория информации, но не столько с формальным количественным учетом её объема, сколько с анализом смыслового и ценностного содержания, поскольку эти процессы, хотя и не противоречат законам физики и химии, но полностью ими не описываются.


14. Ионизирующее излучение (радиация) – это поток заряженных частиц или жестких фотонов (квантов электромагнитного поля), которые способны ионизировать атомы вещества, передавая им соответствующую энергию.

Альфа-излучение – поток атомных ядер химического элемента гелия – т.н. «альфа-частиц» (2 протона + 2 нейтрона), возникающий при альфа-распаде тяжелых радиоактивных элементов (радий, радон, полоний, торий, уран, плутоний и т.п.). Открыто выдающимся английским физиком Эрнестом Резерфордом в 1899 году. Современная теория объясняет его механизм проявлением т.н. туннельного эффекта. Альфа-излучение обладает высокой энергией (от 4 до 5 Мэв), но малой проникающей способностью через вещество, что обусловлено очень интенсивным взаимодействием альфа-частиц с электронными оболочками атомов (высокой плотностью ионизации атомов поглотителя) и, следовательно, быстрой отдачей окружающей среде своей кинетической энергии при поглощении.

Интересной особенностью процесса поглощения альфа-частиц веществом является резкий максимум потерь энергии непосредственно перед окончательной остановкой частицы. Это делает альфа-излучающие изотопы особо опасными в радиобиологическом отношении при попадании их внутрь организма, когда, находясь в непосредственном контакте с тканями органов, даже при малой концентрации, они создают в небольшом объеме очень высокую дозу облучения, приводящую к гибели клеток.

Бета-излучение – поток быстрых электронов (или позитронов) – т.н. бета-частиц, образующихся при бета-распаде атомных ядер в результате т.н. слабого взаимодействия. Впервые бета-распад экспериментально изучался Эрнестом Резерфордом в 1899 году, а в 1933 Энрико Ферми разработал количественную теорию бета-распада. Новая теория бета-распада (она же объединенная теория электрослабого взаимодействия) была разработана С. Вайнбергом и А. Саламом в 1967 году посредством введения в рассмотрение неизвестных ранее силовых полей специфического типа и, соответственно, новых частиц – квантов-переносчиков энергии этих полей. Простейшим примером бета-распада является распад свободного нейтрона на протон, отрицательную бета-частицу (электрон) и антинейтрино.

Бета-распад характерен для широкого класса радиоактивных элементов как искусственных, так и естественных (реликтовых). Энергия бета-излучения и его проникающая способность (пробег) в веществе варьируют в широких пределах, достигая в некоторых случаях, например, для искусственных радиоактивных изотопов фосфор-32 (максимальная энергия бета-спектра 1,7 Мэв) или иттрий-90 (максимальная энергия бета-спектра 2,27 Мэв) нескольких метров в воздухе или нескольких сантиметров в воде и теле человека, что может создавать значительную дозу облучения.

С бета распадом, из-за исчезающе малой вероятности регистрации антинейтрино и нейтрино, связаны философские дискуссии в первой четверти 20 века о возможности нарушения закона сохранения материи-энергии в некоторых физических процессах. Однако, именно осознание этого закона сохранения как фундаментального принципа естествознания позволило теоретически обосновать существование электрически нейтральной и чрезвычайно легкой (а может быть и не имеющей массы покоя) частицы вещества, а затем (в 50-х годах) экспериментально обнаружить эту элементарную частицу. Её предсказал еще в 1931 году швейцарский физик Вольфганг Паули, и назвал, в честь выдающегося итальянского физика Энрико Ферми, нейтрино (по-итальянски - маленький нейтрон).

Гамма-излучение – поток фотонов (квантов электромагнитного поля) высокой энергии, возникающих при т.н. изомерных переходах в атомных ядрах, когда в результате предшествующего альфа- или бета-распада образуется ядро-продукт в возбужденном состоянии, и избыток энергии с большей или меньшей вероятностью «высвечивается» в виде гамма-фотонов. При этом не происходит «изотопных» превращений в структуре ядра, а только переход ядра в основное энергетическое состояние. Гамма излучение, как не имеющее электрического заряда, относительно слабо взаимодействует с атомами вещества и поэтому обладает высокой проникающей способностью – до нескольких десятков сантиметров в свинце, (в зависимости от начальной энергии), и соответственно до многих сотен метров в воздухе. Это позволяет наблюдать за радиационной обстановкой в различных районах Земли со спутников, а также вести радиогеологоразведку. Изучение потоков гамма-излучения в составе космических лучей (см.) имеет большое значение в астрофизике, позволяя исследовать закономерности процессов, происходящих в звездах и ядрах галактик.


15. Квантовая механика – (также волновая механика), неклассическая теория, позволяющая описать закономерности различных процессов движения, взаимодействия и превращения элементарных частиц вещества и полей в масштабах микромира – субатомной реальности. В основе квантового подхода лежит гипотеза выдающегося немецкого физика Макса Планка (см.), выдвинутая в 1900 году (позднее подтвержденная экспериментально), о том, что в микромире все процессы изменения и превращения энергии происходят не непрерывно, а скачками, т.е. квантами (порциями), причем наименьшая порция энергии соответствует т.н. кванту действия и выражается фундаментальной величиной - постоянной Планка h = 6,626*10-34 Дж*сек. Любой энергетический переход измеряется только целым числом квантов энергии, например, энергия электромагнитного излучения, испускаемого или поглощаемого орбитальными электронами атомов, равна произведению постоянной Планка на частоту колебаний его волны, -эту закономерность впервые осознал Эйнштейн в 1905 году, а в 1913 году ее применил Н. Бор для объяснения структуры атома.

Из этой модели следовало, что движение электронов в атоме квантовано, т.е. в аналогиях классической механики (для наглядности) это соответствует тому, что радиусы орбит электронов вокруг ядра, а значит и их потенциальная энергия, могут принимать только дискретные значения, кратные натуральному ряду чисел (квантовым числам). Числу 1 соответствует основное энергетическое состояние, следующим числам – возбужденные. Квантование не нарушает закон сохранения энергии, он в квантовой механике выполняется дискретно и описывает переход электрона с одной орбиты на другую (энергетический скачок) с излучением фотона (кванта электромагнитного поля) с энергией, равной разности потенциальных энергий электрона на этих орбитах: hn=E2 -E1 , где n – частота электромагнитных колебаний.

Динамическое поведение частиц, взаимодействующих с полями, (в частности электрически заряженной частицы с электромагнитным полем), описывает т.н. волновое уравнение Шредингера, - квантовомеханический аналог классического гамильтониана, описывающего в ньютоновской механике поведение макроскопической динамической системы. Уравнение Шредингера (см.) наиболее просто моделирует поведение одной элементарной частицы в силовом поле, но применяется и для системы многих частиц, для которых задана потенциальная энергия во внешнем поле и энергия их взаимодействия. Решением уравнения Шредингера является набор волновых функций, аналогичных таким, которые в классической механике описывают процесс распространения волновых колебаний в среде (т.н. «пси»-функций), но собственные частоты которых подчиняются законам квантования. Задача нахождения волновой функции в общем случае может быть очень сложной, а в ряде случаев (большие, сложные системы атомов – т.н. статистические квантовые ансамбли) волновое описание недостоверно и, как и в классической механике, требует статистических подходов.

Помимо дискретности энергетических состояний объектов микромира, существует еще одно принципиальное отличие его от макромира – это наличие у частиц материи волновых свойств, а у волн электромагнитного поля – корпускулярных (т.н. корпускулярно-волновой дуализм). Волновое уравнение Шредингера как раз соответствует волновому характеру движения в пространстве объектов микромира, а решения его в виде волновых функций («пси»-функций) в квантовой механике описывают специфические особенности вероятностного поведения микрообъектов, обусловленные явлением нелокальности, несуществующим в классической механике, но совершенно обычном в мире элементарных частиц. (См. также: Поле, Шредингер).


16. Кибернетика – общая теория управления, применяемая к любой системе взаимодействующих элементов, образующих единое целое. Основоположник кибернетики, выдающийся американский математик Норберт Винер, определял её как науку об управлении и связи в механизмах, организмах и обществе. Кибернетика, которая появилась в 50-е годы ХХ века, как наука изучает не все системы вообще, а именно управляемые системы, причем это могут быть технические, биологические, экономические, экологические системы, в которых осуществляется саморегуляция и самоуправление при помощи совокупности факторов, (таких, как передача и обмен энергии или информации), прямо или косвенно влияющих на скрытое от непосредственного наблюдения взаимодействие элементов, что и определяет результирующее поведение и общие закономерности развития этих систем как целого. При этом сами элементы большой системы могут для более детального анализа рассматриваться как подсистемы, а в других случаях большая система может оказаться элементом суперсистемы. Таким образом кибернетика, (в зависимости от масштабов поставленной задачи), представляет мир как регулируемую и самоуправляемую суперсистему с иерархической структурой элементов-подсистем, (состоящих, в свою очередь, из элементов следующего уровня и т.д.), организованную посредством взаимодействия обратных информационных и энергетических связей, обеспечивающих долговременное устойчивое её развитие как целого.

Не любая система может обладать свойством управляемости. Необходимым условием наличия в ней хотя бы потенциальных возможностей к управлению является организованность системы, т.е. существование определенной иерархии структур и взаимосвязей между ними, результирующая совместная деятельность которых может интерпретироваться в терминах целесообразности поведения. Как правило, кибернетика изучает действие т.н. отрицательных обратных связей, которые представляют собой механизмы или процессы, использующие часть энергии или информации данной системы, чтобы затем вводя их в эту же систему уменьшить или подавить хаотическое влияние случайных факторов или постоянных тенденций, вызывающих разрегулировку и разупорядочение в процессах саморазвития системы.

Роль отрицательных обратных связей состоит в обеспечении долговременного устойчивого состояния системы, находящейся не в статическом состоянии, а в процессе движения и развития, т.е. динамически активной системы, причем, используя энергию и информацию, эти связи должны обеспечить сохранение структурной организации системы, несмотря на хаотизирующие энтропийные процессы, обусловленные термодинамическими факторами.

Рождение кибернетики как науки обычно относят к 1948 году, когда вышла в свет основополагающая книга Н. Винера («отца кибернетики») «Кибернетика или управление и связь в животном и машине», в которой излагалась общая теория управления сложными системами на основе представлений об универсальных свойствах и закономерностях поведения любых систем, независимо от их природы. В частности, именно Винер со всей определенностью выдвинул идею об универсальности и общности принципа отрицательной обратной связи как для искусственных систем автоматического регулирования различных технологических процессов, так и для биологических процессов, позволяющих живым организмам поддерживать состояние устойчивого существования (гомеостаза) при изменяющихся внешних условиях, хотя, следует заметить, что разработки по теории регулирования с обратной связью имеют почти столетнюю историю.

Становление и развитие кибернетики непосредственно связано также с идеями еще двух выдающихся умов 20-го века. Один из них английский математик Алан Тьюринг, создатель теории обучения вычислительных машин, автор пионерских работ по проблемам, касающимся сущности мышления, оригинальных работ по моделированию биологических процессов и еще ряда основополагающих работ. Другой – американский математик и логик Джон фон Нейман – создатель первой цифровой вычислительной машины, автор теории игр, обосновавший возможность построения сколь угодно надежных систем из ненадежных элементов посредством введения структурной избыточности, доказавший принципиально важную теорему о способности достаточно сложных автоматов к самовоспроизведению и созданию более сложных машин, (что имеет прямые коннотации в биологии – например, принцип Дана), а также автор многих оригинальнейших исследований по проблемам квантовой механики, логики, политэкономии и социологии.

Основные цели, стоящие перед кибернетикой – установить законы, общие для всех управляемых систем вообще и частные закономерности, характерные для систем данного класса, обнаружить границы, в пределах которых можно обеспечить устойчивое развитие различных систем, разработать прикладные методы, которые позволяют оптимизировать процессы тех или иных систем в заданных пределах и т.д. С учетом специфических особенностей определенных классов управляемых систем современная кибернетика разделилась на такие прикладные дисциплины, как техническая кибернетика, экономическая кибернетика и биологическая кибернетика. Если задачей кибернетики является изучение условий управляемого поведения и равновесия имеющихся структур, то проблемами самоорганизации и возникновения новых структур из хаотических состояний занимается синергетика.

Синергетика (от греч. сотрудничество, совместное действие) – междисциплинарное научное направление, изучающее общие и частные закономерности процессов самоорганизации в сложных открытых неравновесных системах самой различной природы: термодинамических, биологических, экологических, экономических, социальных и т.п. В основе феномена самоорганизации в таких системах лежат внутренне присущие им спонтанность и нестабильность, которые при внешнем воздействии резонансного типа могут стать причиной лавинообразного и часто необратимого во времени процесса перехода системы из одного квазиравновесного состояния в другое, но уже совершенно нового типа, со свойствами и характеристиками (параметрами порядка), не выводимыми из свойств и характеристик предыдущих состояний и составляющих систему элементов.

Возникшая в начале 70-х годов ХХ века, на основе нелинейной термодинамики, синергетика как наука общесистемного характера, приобрела со временем концептуальное значение, став основой новой эволюционно-синергетической парадигмы. Особые достижения синергетики связаны с именами выдающихся ученых ХХ века, Нобелевских лауреатов: немецкого физика специалиста по лазерам Германа Хакена (предложившего этот термин в 1973 году), бельгийского физико-химика Ильи Пригожина (исследователя диссипативных структур) и немецкого биофизика Манфреда Эйгена (создавшего теорию гиперцикла – процесса самообразования сложных органических молекул из простых компонентов). Синергетический тип мышления рисует качественно новую картину мира, представляя его, в отличие от механико-динамических детерминистских трактовок классической науки, как подвижную неравновесную систему, гармонически, конструктивно и продуктивно сочетающую в качестве своих элементов как случайные, нестабильные и хаотические, так и стабильные, упорядоченные структуры, связанные сложной сетью положительных и отрицательных обратных связей. Эта система развивается по внутренне ей присущим нелинейным законам, проявляющимся в антиэнтропийной деятельности как живых, так и неживых её частей.

Неизменный, обратимый во времени и точно предсказуемый мир механического движения предметов (в представлениях Лапласа, Кирхгофа, Гельмгольца и др. последователей ньютонианства), синергетика заменила на вечно развивающийся и обновляющийся, необратимый во времени, целостный и незамкнутый мир процессов (в представлениях Спенсера, Дарвина, Бергсона, Уайтхеда, в ряде философских учений Востока и т.п.), в котором не существует резких граней между порядком и хаосом, в котором новые упорядоченные структуры рождаются из неравновесных хаотических состояний, причем последние являются принципиально необходимыми для общего саморазвития и сотворения новых форм. «Материя становится активной: она порождает необратимые процессы, а необратимые процессы организуют материю», - писал о новом синергетическом мировидении И. Пригожин и подчеркивал, что «творческая формообразующая деятельность природы» опирается не столько на закономерно повторяющиеся процессы, (что естественно), сколько на маловероятные и потому достаточно редкие.

Но самое главное в «творческом процессе» природы – это использование уникальных событий, которые, согласно законам термодинамики, столь маловероятны, что случаются может быть лишь однажды, причем большинство из таких событий часто проходит без последствий. Но в благоприятном случае их реализации в специфических условиях нелинейных открытых систем (нуклеация), они порождают целую цепь событий, структур и траекторий, необратимо вписывающихся в природный контекст и выводящих всю систему к маловероятным аттракторам на новый путь развития.

В свете этих философских идей, синергетика выдвинула ряд научных принципов и создала соответствующий математический аппарат, позволяющий моделировать процессы эволюции в некоторых важных химических, биологических и социальных самоорганизующихся системах. Синергетический метод интерпретации процессов самоорганизации, как внутренне присущих материальному миру, пока единственный, на основе которого можно научно ставить вопрос о естественном пути самозарождения и дальнейшем саморазвитии живого вещества в условиях Земли, хотя пока еще успехи науки в этом направлении оцениваются как весьма скромные.

В современной синергетике сложился ряд ведущих научных направлений, таких как философско-методологическое, культурологическое, междисциплинарных исследований и новой системной медицины. Синергетика как наука о процессах саморазвития сложных систем постепенно занимает важные позиции в системе других естественных наук, в гуманитарных исследованиях, создает научные предпосылки для решения экологических проблем и вообще глобальных проблем современной цивилизации. В контексте культуры и образования синергетика способствует синтезу естественнонаучного и гуманитарного мышления, соединяя физику, математику, информатику и логику с изобразительным искусством, литературой, музыкой, психологией, педагогикой и эстетикой, создавая продуктивный междисциплинарный научный подход, который позволяет по-новому исследовать и интерпретировать структуру художественных текстов и прочих произведений искусства, а также предложить инновации в сфере образования.

Этот новый подход, приводящий к созданию более адекватной картины мира, принципиально плюралистичен, поскольку сам мир в этой трактовке неоднозначен и недоступен описанию каким-либо одним универсальным языком. В нём есть место и динамике обратимых состояний, и термодинамике необратимых процессов, кибернетике, моделям т.н. квантового хаоса и бутстрэпа и объединяющему все эти и прочие частные подходы и модели - общеэпистемологическому принципу дополнительности. «Я назвал новую дисциплину синергетикой, - писал Г. Хакен, - не только потому, что в ней исследуется совместное действие многих элементов систем, но и потому, что для нахождения общих принципов, управляющих самоорганизацией, необходимо кооперирование многих различных дисциплин», а Илья Пригожин (см.) назвал этот новый постнеклассический период в современном естествознании и философии «новым диалогом человека с природой».