Состояния систем, энтропия, расчет энтропии, примеры.




Степень организации элементов в системе связывается с изменением (снижением) энтропии системы по сравнению с суммарной энтропией элементов. Понятие энтропии введено Больцманом для термодинамических систем:

(1.2)

где - вероятность j-го состояния (в теории информации – события); m - возможное число состояний (событий).

Например, два элемента А и В могут каждый принимать два равновероятных состояния: «0»и «1». Вероятность каждого состояния:

Р1(А) = Р2(А) = Р1(В) = Р2(В) = 0,5.

Для одного элемента энтропия составит

Н(А) = Н(В) = -0,5 log20,5 - 0,5log20,5 = 1.

Энтропия двух элементов:

Н(А) + Н(В) = 1 + 1 = 2. ¨

Допустим, что система S элементов А и В может принимать три состояния: «-1», «0», «1» с вероятностями Р1(S) = Р3(S) = 0,2; Р2 = 0,6.

Тогда

Н(S) = -2.0,2.log20,2 - 0,6.log20,6 = -0,4×(-2,32) - 0,6×(-0,737) = 1,37.

Энтропия системы S меньше суммы энтропий элементов А и В на

DН = Н(А) + Н(В) - Н(S) = 2 - 1,37 = 0,63. ¨

Для расчета изменения энтропии системы через вероятности состояний очень часто используется метод Колмогорова.

Допустим, дана структурная схема (граф) состояний подсистемы S (см. рис. 1.2). Исходным состоянием системы с равной степенью вероятности может быть одно из четырех состояний, т.е.

.

Будем считать, что интенсивности переходов l21, l32, l43, l14, l24 заданы. Тогда можно показать, что скорости изменения вероятности нахождения системы в i-м состоянии определяются как , (1.3)

где ; n – число узлов графа (количество состояний);

mj - интенсивности переходов по дугам, входящим в i-й узел;

ri – число дуг, входящих в i-й узел;

lk - интенсивности переходов по дугам, исходящим из i-го узла;

mi – число дуг, выходящих из i-го узла;

Pi и Pj – вероятности нахождения системы в i-м и j-м состояниях

соответственно.

Заметим, что

.

Установившееся значение вероятности нахождения системы в i-м состоянии определяется из условия

.

Тогда для системы с n состояниями имеем систему из (n + 1) уравнений с n неизвестными:

; . (1.4)

Одно из уравнений (1.4) можно отбросить, так как оно может быть получено из (n - 1) оставшихся.

Пример. Примем l21 = 0,1, l32 = 0,2, l43 = 0,3, l14 = 0,4, l24 = 0,5. Тогда получаем:

l14.Р4 - l21.Р1 = 0

l21.Р1 + l24.Р4 - l32.Р2 = 0

l32.Р2 - l43.Р3 = 0

l43.Р3 – (l14 + l24).Р4 = 0

Р1 + Р2 + Р3 + Р4 = 1.

Из системы отбросим второе уравнение и получим:

- 0,1.Р1 + 0.Р2 + 0.Р3 + 0.Р4 = 0

0.Р1 + 0,2.Р2 – 0,3.Р3 + 0.Р4 = 0

0.Р1 + 0.Р2 + 0,3.Р3 – 0,9.Р4 = 0

1.Р1 + 1.Р2 + 1.Р3 + 1.Р4 = 1.

Решение полученной системы: Р1 = 0,32, Р2 = 0,36, Р3 = 0,24, Р4 = 0,08.

Расчет энтропий ведется по формуле

.

Для исходного состояния

Э0 = -4 . 0,25 . log20,25 = 2,

для конечного состояния

Эк = -(0,32 . log20,32 + 0,36 . log20,36 + 0,24 . log20,24 + 0,08 . log20,08) = 1,835.

То есть, изменение энтропии составляет

DЭ = Э0 – Эк = 2 – 1,835 = 0,165. ¨

Существуют два основных подхода к расчету энтропий систем и ценности информации.

Первый подход основан на декомпозиции исходной задачи на этапы вычисления вероятностей апостериорной и априорной вероятности элементарных событий.

Методика расчета включает:

- декомпозицию исходной задачи на последовательность таких элементарных событий, априорная вероятность которых известна, а апостериорная может быть легко рассчитана;

- расчет энтропий (или ценности информации) каждого элементарного события;

- вычисление изменения энтропии исходного состояния по отношению к конечному (или ценности информации) путем суммирования изменений энтропий элементарных этапов (переходов, событий).

Данный подход позволяет избежать вычисление вероятности сложных событий.

Второй подход основывается на использовании условных вероятностей событий. Последние иногда рассчитать довольно сложно.

Таким образом, энтропия выступает в качестве меры хаоса, беспорядка и ее снижение означает увеличение организации.

Для информационных систем степень организации очень часто зависит от количества информации, которая может быть использована для управления.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2019-05-16 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: