Динамика структурности – опыт классификации
Теория информации дала дополнительные концептуальные средства оценки сложности.
Связь между энтропией и вероятностью была установлена Л.Больцманом и выражается его знаменитой формулой:
H=a·lnW,
где H – энтропия, W – термодинамическая вероятность состояния.
Позже, в работах Э.Шредингера, было предложено более широкое понимание энтропии – как меры дезорганизации систем любой природы, а К.Шеннон заметил, что математическое выражение количества информации совпадает с формулой Больцмана. Наконец, Н.Винер в 1948г. констатировал, что «количество информации, будучи отрицательным логарифмом величины, которую можно рассматривать как вероятность, по существу есть некоторая отрицательная энтропия» [4].
Взаимосвязь понятий энтропии и информации нашла отражение в формуле H + I = 1.
Таким образом, уровень упорядоченности ряд авторов предлагает считывать по энтропии – например: количество информации, необходимой для перехода от некоторого уровня организации n – 1 к более высокому уровню n, определяется как разность энтропий:
∆I (t – τ) = Hn–1(t, τ) – Hn(t, τ),
где Hn–1(t, τ) = ∑ Pn–1(t, τ) logPn–1(t, τ) – энтропия состояния объекта на уровне n–1; Hn(t, τ) = ∑ Pn(t, τ) logPn(t, τ) – энтропия состояния на уровне n [4].
Теоретико-информационный подход к определению меры сложности имеет свои недостатки. Приведённые выкладки слишком сложны для вычислений, поэтому пока они имеют скорее только теоретический интерес.
С другой стороны, мера разнообразия, формализуемая в теории информации, на наш взгляд, не схватывает должным образом упорядоченную сложность. Сложность как разнообразие не учитывает вписанность элементов в структуру, их интегрированность, связанность и поэтому служит мерилом сложности неупорядоченного.
Авторы монографии «Принцип простоты и меры сложности» отмечают:
«Корректность и применимость той или иной теоретико-информационной меры сложности в значительной мере определяется той интерпретацией, которая даётся субстрату разнообразия. В этом плане весьма уязвимыми являются позиции, подобные тем, которые легли в основу информационных и энтропийных мер оценки сложности. Здесь субстрат разнообразия представлен двумя множествами – вещей и связей между ними, количества которых и их разнообразия в обеих мерах просто суммируются. Суммирование числа вещей и числа отношений между ними представляется столь же лишённой логического смысла операцией, как и суммирование в физике с нарушением принципа размерности, например, прибавление времени к массе» [3].
Возможен ещё один подход к оценке упорядоченной сложности.
Будучи внутренним качеством формы, структурность может проявляться и внешне – в её функциональных качествах/способностях и прежде всего в высшей функции. Последние тестируются и ранжируются количественно. Например, показателем сложности человеческой формы в ряду живых форм может служить сознание.
Человек отличается от других животных, как принято считать, абстрактным мышлением. Абстрактное мышление опосредуется ёмкой знаковой системой, вне которой обобщающие абстракции не возможны – не будучи закреплены знаком, они быстро «расшатываются» и стираются. С момента же наречения понятие обретает устойчивость и дееспособность (становится возможным применять его в логических операциях).
Немного больше о технологиях >>>
Система качественных показателей для оценки достижения идеальности ТС
Общая структура Технической Системы:
ЗАТРАТЫ (вход) - ТС (процессор) - ГПФ
(выход)
Идеал ТС: Достижение ГПФ при сумме затрат
стремящейся к нулю.
...
Оптимизация структуры стохастического графа c переменной интенсивностью выполнения работ
Задача
распределения ресурсов (нескладируемого типа) на cтохастических сетях (параллельные
проекты) сформулирована как обусловленная переменной структурой графа.
Предложенный метод решения обеспечивает получение экстремального графа для
случая, когда каждая работа многопроектно ...