Динамика структурности – опыт классификации

Курсовой проект - История

Другие курсовые по предмету История

µния шкалы сложности систем целесообразно полностью отвлечься от числа элементов [3].

На наш взгляд, проблема здесь прежде всего в том, что к понятию сложность следует подходить дифференцировано: сложность упорядоченного и сложность неупорядоченного суть существенно разные сложности. Если сложность аддитивной совокупности связана с количеством и разнообразием подчас случайным образом пространственно смежных элементов и их положений, то сложность упорядоченного (далее будем говорить и упорядоченная сложность) предполагает определённое количество и качество внутренних связей, ограничивающих свободу движения и положения элементов.

В этой связи понятно, что сложность структуры (а это всегда упорядоченная сложность) достаточно позитивная, грамотная, способная надёжно работать абстракция, тогда как сложность системы совмещает два разнородных типа сложности воедино, отсюда многоэлементные слабо интегрированные, делимые образования могут казаться высокосложными объектами. Сложность эта, однако, имеет мало отношения к упорядоченной сложности. В этой связи сложность системы следует признать весьма неудовлетворительной, неаккуратной, непозитивной абстракцией.

Итак, в качестве ключевого термина мы выбираем структурность, который трактуем как сложность или меру сложности структур (структуры) = сложность (высококогерентного) упорядочения = упорядоченную сложность. Данный термин достаточно точен и лаконичен. Данной сущности для будущих кратких ссылок и математизации ставим в соответствие символ s.

Сложность неупорядоченного, хаотического выводится за рамки настоящего рассмотрения.

Теория информации дала дополнительные концептуальные средства оценки сложности.

Связь между энтропией и вероятностью была установлена Л.Больцманом и выражается его знаменитой формулой:

H=alnW,

где H энтропия, W термодинамическая вероятность состояния.

Позже, в работах Э.Шредингера, было предложено более широкое понимание энтропии как меры дезорганизации систем любой природы, а К.Шеннон заметил, что математическое выражение количества информации совпадает с формулой Больцмана. Наконец, Н.Винер в 1948г. констатировал, что количество информации, будучи отрицательным логарифмом величины, которую можно рассматривать как вероятность, по существу есть некоторая отрицательная энтропия [4].

Взаимосвязь понятий энтропии и информации нашла отражение в формуле H + I = 1.

Таким образом, уровень упорядоченности ряд авторов предлагает считывать по энтропии например: количество информации, необходимой для перехода от некоторого уровня организации n 1 к более высокому уровню n, определяется как разность энтропий:

?I (t ?) = Hn1(t, ?) Hn(t, ?),

где Hn1(t, ?) = ? Pn1(t, ?) logPn1(t, ?) энтропия состояния объекта на уровне n1; Hn(t, ?) = ? Pn(t, ?) logPn(t, ?) энтропия состояния на уровне n [4].

Теоретико-информационный подход к определению меры сложности имеет свои недостатки. Приведённые выкладки слишком сложны для вычислений, поэтому пока они имеют скорее только теоретический интерес.

С другой стороны, мера разнообразия, формализуемая в теории информации, на наш взгляд, не схватывает должным образом упорядоченную сложность. Сложность как разнообразие не учитывает вписанность элементов в структуру, их интегрированность, связанность и поэтому служит мерилом сложности неупорядоченного.

Авторы монографии Принцип простоты и меры сложности отмечают:

Корректность и применимость той или иной теоретико-информационной меры сложности в значительной мере определяется той интерпретацией, которая даётся субстрату разнообразия. В этом плане весьма уязвимыми являются позиции, подобные тем, которые легли в основу информационных и энтропийных мер оценки сложности. Здесь субстрат разнообразия представлен двумя множествами вещей и связей между ними, количества которых и их разнообразия в обеих мерах просто суммируются. Суммирование числа вещей и числа отношений между ними представляется столь же лишённой логического смысла операцией, как и суммирование в физике с нарушением принципа размерности, например, прибавление времени к массе [3].

Возможен ещё один подход к оценке упорядоченной сложности.

Будучи внутренним качеством формы, структурность может проявляться и внешне в её функциональных качествах/способностях и прежде всего в высшей функции. Последние тестируются и ранжируются количественно. Например, показателем сложности человеческой формы в ряду живых форм может служить сознание.

Человек отличается от других животных, как принято считать, абстрактным мышлением. Абстрактное мышление опосредуется ёмкой знаковой системой, вне которой обобщающие абстракции не возможны не будучи закреплены знаком, они быстро расшатываются и стираются. С момента же наречения понятие обретает устойчивость и дееспособность (становится возможным применять его в логических операциях).

Давайте попытаемся, не прибегая к специальным исследованиям и литературе, на месте приблизительно оценить s перепад между видом homo sapiens и другими высшими позвоночными, например, птицами. Для этого сопоставим число сигналов (напр., звуковых), выражающих у птиц общие понятия, и лексический объём какого-нибудь словаря. У птиц, общими сигналами, обеспечивающими основные биологические функции, будут сигналы, выражающие потребность в и обнаружение пищи Хочу есть!, Зёрнышки нашёл!; предупреждение об опасности возможно,