Исследования в современном управлении

Методическое пособие - Менеджмент

Другие методички по предмету Менеджмент

гут как содействовать целям высшего уровня организации, так и противоречить им), роли открытых систем. Богданов довел динамические аспекты тектологии до рассмотрения проблемы кризисов, т.е. таких моментов в истории любой системы, когда неизбежна коренная, “взрывная” перестройка ее структуры. Он подчеркивал роль моделирования и математики как потенциальных методов решения задач тектологии.

Даже из этого небольшого обзора основных идей тектологии видно, что Богданов предвосхитил, а кое в чем и превзошел многие положения современных кибернетических и системных теорий. Тектология была “ориентирована на самый широкий охват реальности организационными категориями”, и это явилось первым из того класса характерных для XX века системных подходов, которые приобрели статус общенаучных, проторив дорогу кибернетике и синергетике. Последние можно считать наиболее крупными (в концептуальном плане) вкладом в философию, в формирование современных представлений о явлениях самоорганизации и развития мира в целом.

 

1.3.3Эволюция представлений об энтропии

Прежде чем рассматривать следующие этапы развития системного подхода и системных исследований, необходимо объяснить и уточнить некоторые понятия, которые мы уже упоминали и будем использовать в дальнейшем. Проникновение методов теории информации в физику, биологию и другие области естествознания показало тесную взаимосвязь понятия количества информации с естественно-научным понятием “энтропия”.

Понятие энтропия, первоначально введенное Р. Клаузисом лишь с целью более удобного описания работы тепловых двигателей, усилиями многих ученых, и прежде всего Л. Больцмана, стало играть универсальную роль, определяя многие закономерности в поведении макроскопических систем. В 30-е годах нашего столетия энтропия стала мерой вероятности информационных систем и явилась основой теории информации (работы Л. Сцилларда, К. Шеннона)

Связь между энтропией и вероятностью установлена Л. Больцманом и выражается знаменитой формулой, носящей имя этого ученого:

 

H = lnW ,

 

где H - энтропия, W - термодинамическая вероятность состояния.

Существенно, что Больцман, связав второй принцип термодинамики с теорией вероятности, показал, что убывание энтропии не является невозможным, а только маловероятным. Второй принцип термодинамики становится констатацией того факта, что информация теряется различными способами, что ведет к увеличению энтропии системы, но, чтобы приобрести новую информацию и уменьшить энтропию, следует произвести новые измерения, т.е. затратить энергию

В конце 40-х годов Э. Шредингер, а затем и Н. Винер существенно расширили понятие энтропии - до понимания ее как меры дезорганизации систем любой природы. Эта мера простирается от максимальной энтропии (H=1), т.е. хаоса, полной неопределенности, до исчезновения энтропии (H=0), соответствующего наивысшему уровню организации, порядка.

Таким образом, можно выделить следующие этапы развития понятия энтропии, где она выступает как:

 

  • мера рассеяния тепловой энергии в замкнутой термодинамической системе

-Клаузис, Больцман

(1852 год)

  • мера вероятности информационных систем (мера количества информации) -Сциллард, Шеннон
(1929 год)
  • мера дезорганизации систем любой природы -Шредингер, Винер
(!944 год)С помощью энтропии стало возможно количественно оценивать на первый взгляд качественные понятия, как “хаос” и “порядок”. Информация и энтропия связаны потому, что они характеризуют реальную действительность с точки зрения именно упорядоченности и хаоса, причем если информация - мера упорядоченности, то энтропия - мера беспорядка; одно равно другому, взятому с обратным знаком. Например, если на предприятии низка трудовая и технологическая дисциплина, идет брак, то мы можем утверждать, что здесь низок уровень организации, или велика энтропия. Она угрожающе растет ныне и в нашей экономике, социальной жизни.

Энтропия и информация служат, таким образом, выражением двух противоположных тенденций в процессах развития. Альтернативность и взаимосвязь понятий энтропии и информации нашли отражение в формуле

 

H + J = 1 (const).

 

Если система эволюционизирует в направлении упорядоченности, то ее энтропия уменьшается. Но это требует целенаправленных усилий, внесения информации, т.е. управления. “Мы плывем вверх по течению, борясь с огромным потоком дезорганизованности, который, в соответствии со вторым законом термодинамики, стремится все свести к тепловой смерти - всеобщему равновесию и одинаковости, т.е. энтропии. В мире, где энтропия в целом стремится к возрастанию, существуют местные временные островки уменьшающейся энтропии, это области прогресса. Механизм их возникновения состоит в естественном или целенаправленном отборе устойчивых форм. Человек всю жизнь борется с энтропией, гася ее извлечением из окружающей среды отрицательной энтропии информации” [3].

Количество информации, отождествляемое Винером с отрицательной энтропией (негэнтропией), становится, подобно количеству вещества или энергии, одной из фундаментальных характеристик явлений природы. Введение понятия энтропии в теорию информации явилось, по выражению Бройля, “наиболее важной и красивой из идей, высказанных кибернетикой”, и рассматривается как большой вклад XX века в научную мысль [4]. Это положение называют еще вторым “краеугольным камнем” кибернети?/p>