Иерархия - это соподчиненность, любой согласованный по подчиненности порядок объектов. В настоящее время, говоря об иерархии, имеют в виду любой согласованный по подчиненности порядок объектов, порядок подчинения низших по должности и чину лиц высшим в социальных организациях, при управлении предприятием, регионом, государством и т. п.
2.1. Коммуникативность Любая система не изолирована от других систем, но связана множеством коммуникаций с окружающей средой, которая представляет собой сложное и неоднородное образование, содержащее:
· надсистему (систему более высокого порядка, задающую требования и ограничения рассматриваемой системе);
· элементы или подсистемы (нижележащие, подведомственные системы);
· системы одного уровня с рассматриваемой. Такое сложное единство системы со средой названо закономерностью коммуникативности. В силу закономерности коммуникативности каждый уровень иерархической упорядоченности имеет сложные взаимоотношения с вышестоящим и нижележащим уровнями.
2.2. Иерархичность Закономерность иерархичности заключается в том, что любую систему можно представить в виде иерархического образования. При, этом на всех уровнях иерархии действует закономерность целостности. Более высокий иерархический уровень объединяет элементы нижестоящего и оказывает на них направляющее воздействие. В результате подчиненные члены иерархии приобретают новые свойства, отсутствовавшие у них в изолированном состоянии. А возникшее в результате объединения нижестоящих элементов новое целое приобретает способность осуществлять новые функции (проявляется закономерность эмерджентности), в чем и состоит цель образования иерархий. Использование иерархических представлений оказывается полезным в случае исследования систем и проблемных ситуаций с большой неопределенностью. При этом происходит как бы расчленение «большой» неопределенности на более «мелкие», лучше поддающиеся исследованию. Даже если эти мелкие неопределенности не удастся полностью раскрыть и объяснить, то все же иерархическое упорядочение частично снимает общую неопределенность и обеспечивает, по крайней мере, более эффективное управляющее решение.
|
Пример. Перед специалистом ставится задача оценить спрос на компьютеры в следующем году в городе N. На первый взгляд задача кажется очень трудной - слишком много неопределенностей. Однако разобьем задачу на подзадачи: оценить потребность в компьютерах различных секторов потребителей (коммерческие организации, госструктуры, студенты, школьники, другие частные лица). В отношении каждого из секторов задача уже не кажется такой безнадежной - даже не обладая полнотой информации, можно оценить потребность в компьютерах. Далее каждый из секторов можно разбить на подсектора и т. д.
3. Закономерности осуществимости систем (энтропийные закономерности)
3.1. Понятие энтропии
Важную роль в системном анализе играет понятие энтропии, тесно связанное с информацией.
Понятие «энтропия» ввел в 1865 г. немецкий физик Р. Клаузиус как понятие физическое: энтропия в термодинамике — функция состояния термодинамической системы, характеризующая направленность тепловых процессов. Согласно принятому в термодинамике определению, изменение энтропии некоторой системы равно отношению приращения (или уменьшения) количества теплоты к абсолютной, температуре, при которой это приращение (или уменьшение) происходит.
|
В системном анализе энтропия Э служит количественной мерой беспорядка (свободы, разнообразия) в системе и определяется числом допустимых состояний системы Ns:
Приведенная формула справедлива только для равновероятных состояний. Если же система может находиться в n состояниях —s1, s2, …. sn — с вероятностями соответственно p(s1),p (s2),….,p(sn), то ее энтропия рассчитывается по формуле
Так как логарифм является безразмерной величиной, то и энтропия также безразмерная ве-личина. С другой стороны, энтропия, как и информация, может измеряться в битах, если в формулах вместо натурального использовать двоичный логарифм.
Примеры:
1. Система с жесткой структурой (например, армейская) может находиться только в одном состоянии (в армии есть поговорка: «Из нас прав кто-нибудь один: или я, или никто»). Эн-тропия такой системы равна нулю (Э= In 1 = 0).
2. Бюрократией называют систему, в которой почти не осталось разнообразия, поэтому энтропия такой системы предельно мала.
3.2. Открытые и закрытые системы. Второе начало термодинамики
Как говорилось ранее, между системой и окружающей средой происходит обмен веществом, энергией и информацией. Причиной обмена является неравновесное состояние системы по отношению к окружающей среде — разность их свойств. Если свойства системы и окружающей среды идентичны, то система находится в равновесии — все обменные процессы прекращаются. Однако, несмотря на неравновесность, обменные процессы могут отсутствовать при естественном или искусственном их ограничении. В связи с этим рассматриваются понятия открытой и закрытой систем.
Открытая система — это система, способная обмениваться окружающей средой массой, энер-гией и информацией.
Закрытая, или замкнутая, система лишена этой возможности, т. е. полностью изолирована от среды.
При этом возможны и частные случаи: например, в модели системы не учитываются гравитационные и энергетические процессы, а отражается только обмен информацией со средой; тогда говорят об информационно-проницаемых или соответственно информационно-непроницаемых системах.
Строго говоря, такая полная изоляция любой системы весьма условна в силу всеобщей взаимосвязи и взаимозависимости явлений и процессов в природе и обществе. Можно лишь условно считать, что доля взаимосвязей системы со средой пренебрежимо мала по сравнению с внутренними взаимосвязями системы.
Поэтому понятие закрытой системы следует рассматривать как своего рода модель. При отображении проблемной ситуации такой моделью условно принимается, что либо «входы» и «выходы» у системы отсутствуют, либо их состояния неизменны в рассматриваемый период времени.
Поведение закрытой системы определяется начальными условиями, характеристиками ее элементов и связей, структурой, внутренними закономерностями функционирования системы. Предметом исследования являются внутренние изменения, определяющие поведение системы. Внешние же управляющие или возмущающие воздействия рассматриваются как помехи.
В частности, одним из принципиальных отличий закрытых систем от открытых является тот факт, что они оперирует обычно понятием цель как внешним по отношению к системе, а в открытых цели не задаются извне, а формируются внутри системы.
Для замкнутых систем справедливо второе начало (закон) термодинамики, согласно которому энтропия замкнутой (изолированной) системы монотонно возрастает (не убывает) со временем (ΔЭ >= 0), вплоть до достижения максимального значения (Эмакс) в конечном равновесном состоянии, когда число допустимых состояний системы максимально.
Возрастание энтропии в термодинамических системах говорит о переходе упорядоченной формы движения частиц в неупорядоченную, иначе тепловую. Превращение энергии упорядочен-ного движения в энергию хаотического движения называют диссипацией энергии (термин «диссипативный» является синонимом термина «необратимый»). Температура всех частей системы в состоянии равновесия одинакова. Термодинамическому равновесию системы соответствует состояние с максимумом энтропии. Энтропия же всех веществ при абсолютном нуле равна нулю.
Любая изолированная система стремится достичь ситуации, отвечающей наибольшему беспорядку, т. е. ситуации с максимальным значением энтропии. Однако в системе возможны флуктуации.
Флуктуации — это случайные процессы, при которых система переходит из более вероятного состояния в менее вероятное.
При флуктуации энтропия системы уменьшается, т. е. закон возрастания энтропии выполняется только в среднем для достаточно большого промежутка времени.
В незамкнутых системах энтропия может как увеличиваться (например, при подводе тепла в термодинамическую систему извне), так и уменьшаться (например, при теплоотдаче в окружающую среду) Таким образом, в отличие от закрытых в открытых системах возможно снижение энтропии. Подобные системы могут сохранять свой высокий уровень организованности и даже развиваться в сторону увеличения порядка сложности. Для повышения организованности (снижения энтропии) системы применяют управление. Именно поэтому так важен хороший обмен информацией со средой для эффективного решения задач управления, т. е. в качестве противоположности энтропии выступает обратная ей по знаку величина – информация, действие которой выражается в тенденции к увеличению упорядоченности и уменьшению неопределенности. Нужно понимать, что информация не уничтожает энтропию, но способна компенсировать ее возрастание. Так, подставленная ладонь, препятствуя падению предмета, не уменьшает действие гравитационных сил (не отменяет закон всемирного тяготения), а только компенсирует его воздействие.
|
3.3. Принцип компенсации энтропии
Представление о том, какую «плату» приходится платить за уменьшение энтропии системы, дает принцип компенсации энтропии.
Принцип компенсации энтропии гласит, что энтропия неизолированной системы может быть уменьшена только за счет компенсирующего увеличения энтропии в другой или других системах взаимодействующих с данной.
На основе вышеизложенного, можно утверждать, что прогресс не может быть общим для всех частей системы. По законам термодинамики снижение энтропии в одной части системы обязательно сопровождается повышением энтропии в другой части или окружающей среде. Поэтому невозможен всемирный прогресс и благоденствие, если мы не научимся отводить от планеты лишнюю энтропию (отходы) во внешнюю среду. Успехи развития одной группы людей (даже внутри одной семьи) или одного слоя общества, или одного государства и, следовательно, снижение их энтропии возможно только при одновременном повышении энтропии в других группах людей, в других слоях общества, в других государствах или окружающей среде соответственно. Очевидно, что безэнтропийных процессов не бывает ни в природе, ни в обществе, аналогично тому, как не бывает безотходных технологий.
3.4. Закон «необходимого разнообразия» Эшби
Для уменьшения разнообразия (беспорядка) необходимо привнести в систему информацию (управляющее воздействие) — негэнтропию, которую ошибочно представляют как энтропию с отрицательным знаком. Негэнтропия действительно измеряется в тех же единицах, как и энтропия (например, в битах), направление ее действительно противоположно энтропии, и увеличение негэнтропии вызывает такое же уменьшение энтропии. Несмотря на это, негэнтропия и энтропия изменяются в системе но разным самостоятельным закономерностям, и их абсолютные значения мало зависят друг от друга. При увеличении энтропии увеличивается размерность систем и количество независимых факторов — переменных. Одновременно с ростом энтропии увеличивается и неопределенность, неупорядоченность, беспорядок системы. Чтобы их уменьшить, необходимо ввести в систему негэнтропию, или информацию. При прогрессивном развитии системы, при ее организации и упорядочении больше увеличивается негэнтропия, чем энтропия. При деструкции, дезорганизации системы, наоборот, больше увеличивается энтропия, чем негэнтропия.
Какие имеются возможности по уменьшению энтропии объекта субъектом? У.Р. Эшби сформулировал закономерность, известную под названием «закон необходимого разнообразия».
Когда лицо N, принимающее решение, сталкивается с проблемой D, решение которой для него неочевидно, то имеет место некоторое разнообразие возможных решений, оцениваемое энтропией ЭD. Этому разнообразию противостоит «разнообразие» исследователя ЭN — разнообразие известных ему методов и приемов решения проблемы и способность сгенерировать новые. Задача исследователя заключается в том, чтобы свести разность разнообразий ΔЭ = ЭD — ЭN к минимуму, в идеале — к нулю.
Эшби доказал теорему, на основе которой формулируется следующий вывод: ΔЭ может быть уменьшена лишь за счет соответствующего роста ЭN. Говоря более образно, только разнообразие в N может уменьшить разнообразие, создаваемое в D, только разнообразие может уничтожить разнообразие.
Итак, для успешного решения задачи управления управляющая система (техническая или организационная) должна иметь большее (или, по крайней мере, равное) разнообразие (свободу выбора), чем объект управления:
Закономерности развития
4.1. Закономерность развития во времени – историчность.
Из диалектики известно, что любая система не может быть неизменной, что она не только возникает, функционирует, развивается, но и погибает — любая система имеет свой жизненный цикл. Жизненный цикл - это период времени от возникновения потребности в системе и ее становления до снижения эффективности функционирования и «смерти» или ликвидации системы.
4.2. Рост и развитие
Любая система со временем претерпевает количественные и качественные изменения. Для этих изменений вводятся понятия «рост» и «развитие». Важно различать эти понятия, поскольку рост и развитие далеко не одно и то же, и далее не обязательно одно связано с другим. Рост - это увеличение в числе и размерах. Развитие - это изменения процессов в системе во времени, выраженные в количественных, качественных и структурных преобразованиях от низшего (простого) к высшему (сложному).
Пример. Груда мусора может расти без развития. Человек развивается еще долго после того, как прекращается его рост.
4.3. Закономерность неравномерного развития и рассогласования темпов выполнения функций элементами системы
Чем сложнее система, том более неравномерно развиваются ее составные части. При этом в процессе функционирования или развития системы ее элементы выполняют свои локальные функции в соответствии со своим темпом. Это закономерно приводит к рассогласованию темпов выполнения функций элементами, что создает угрозу целостности системы и ее способности выполнять свои функции, а также дезорганизации всей системы вплоть до ее остановки. Пример. С развитием тоннажа грузовых судов быстро росла мощность двигателей, однако средства торможения развивались медленно. В результате возникло противоречие: все крупные 20 корабли и танкеры не могли -эффективно затормозить - от начала торможения до полной остановки они успевают пройти несколько миль.
4.4. Закономерность увеличения степени идеальности
Развитие всех систем идет в направлении увеличения степени идеальности. Подразумевается, что идеальная система - это такая система, у которой вес, объем, ненадежность, потребление ресурсов стремятся к нулю, хотя при этом способность системы выполнять свои функции не уменьшается.
4.5. Закономерность внутрисистемной и межсистемной конвергенции Конвергенция означает схождение, сближение, взаимовлияние, взаимопроникновение между системами или между разными элементами внутри одной системы. Конвергенция возникает: · при наличии общей среды обитания для двух систем; · при открытости обеих систем, что позволяет факторам среды воздействовать на внутренние структуры систем; · при отсутствии противостояния и борьбы между системами; · в случае взаимного влияния систем, что ускоряет процесс взаимного обмена сходством.
4.6. Эквифинальность
Эквифинальность - это способность системы достигать определенного состояния, которое не зависит ни от времени, ни от ее начальных условий, а определяется исключительно ее параметрами. Эта закономерность характеризует как бы предельные возможности системы, что важно учитывать при проектировании как организаций, так и информационных систем. Это одна из наименее исследованных закономерностей.