Степень организации элементов в системе связывается с изменением (снижением) энтропии системы по сравнению с суммарной энтропией элементов. Понятие энтропии введено Больцманом для термодинамических систем:
(1.2)
где - вероятность j-го состояния (в теории информации – события); m - возможное число состояний (событий).
Например, два элемента А и В могут каждый принимать два равновероятных состояния: «0»и «1». Вероятность каждого состояния:
Р1(А) = Р2(А) = Р1(В) = Р2(В) = 0,5.
Для одного элемента энтропия составит
Н(А) = Н(В) = -0,5 log20,5 - 0,5log20,5 = 1.
Энтропия двух элементов:
Н(А) + Н(В) = 1 + 1 = 2. ¨
Допустим, что система S элементов А и В может принимать три состояния: «-1», «0», «1» с вероятностями Р1(S) = Р3(S) = 0,2; Р2 = 0,6.
Тогда
Н(S) = -2.0,2.log20,2 - 0,6.log20,6 = -0,4×(-2,32) - 0,6×(-0,737) = 1,37.
Энтропия системы S меньше суммы энтропий элементов А и В на
DН = Н(А) + Н(В) - Н(S) = 2 - 1,37 = 0,63. ¨
Для расчета изменения энтропии системы через вероятности состояний очень часто используется метод Колмогорова.
Допустим, дана структурная схема (граф) состояний подсистемы S (см. рис. 1.2). Исходным состоянием системы с равной степенью вероятности может быть одно из четырех состояний, т.е.
.
Будем считать, что интенсивности переходов l21, l32, l43, l14, l24 заданы. Тогда можно показать, что скорости изменения вероятности нахождения системы в i-м состоянии определяются как , (1.3)
где ; n – число узлов графа (количество состояний);
mj - интенсивности переходов по дугам, входящим в i-й узел;
ri – число дуг, входящих в i-й узел;
lk - интенсивности переходов по дугам, исходящим из i-го узла;
mi – число дуг, выходящих из i-го узла;
Pi и Pj – вероятности нахождения системы в i-м и j-м состояниях
соответственно.
Заметим, что
|
.
Установившееся значение вероятности нахождения системы в i-м состоянии определяется из условия
.
Тогда для системы с n состояниями имеем систему из (n + 1) уравнений с n неизвестными:
; . (1.4)
Одно из уравнений (1.4) можно отбросить, так как оно может быть получено из (n - 1) оставшихся.
Пример. Примем l21 = 0,1, l32 = 0,2, l43 = 0,3, l14 = 0,4, l24 = 0,5. Тогда получаем:
l14.Р4 - l21.Р1 = 0
l21.Р1 + l24.Р4 - l32.Р2 = 0
l32.Р2 - l43.Р3 = 0
l43.Р3 – (l14 + l24).Р4 = 0
Р1 + Р2 + Р3 + Р4 = 1.
Из системы отбросим второе уравнение и получим:
- 0,1.Р1 + 0.Р2 + 0.Р3 + 0.Р4 = 0
0.Р1 + 0,2.Р2 – 0,3.Р3 + 0.Р4 = 0
0.Р1 + 0.Р2 + 0,3.Р3 – 0,9.Р4 = 0
1.Р1 + 1.Р2 + 1.Р3 + 1.Р4 = 1.
Решение полученной системы: Р1 = 0,32, Р2 = 0,36, Р3 = 0,24, Р4 = 0,08.
Расчет энтропий ведется по формуле
.
Для исходного состояния
Э0 = -4 . 0,25 . log20,25 = 2,
для конечного состояния
Эк = -(0,32 . log20,32 + 0,36 . log20,36 + 0,24 . log20,24 + 0,08 . log20,08) = 1,835.
То есть, изменение энтропии составляет
DЭ = Э0 – Эк = 2 – 1,835 = 0,165. ¨
Существуют два основных подхода к расчету энтропий систем и ценности информации.
Первый подход основан на декомпозиции исходной задачи на этапы вычисления вероятностей апостериорной и априорной вероятности элементарных событий.
Методика расчета включает:
- декомпозицию исходной задачи на последовательность таких элементарных событий, априорная вероятность которых известна, а апостериорная может быть легко рассчитана;
- расчет энтропий (или ценности информации) каждого элементарного события;
- вычисление изменения энтропии исходного состояния по отношению к конечному (или ценности информации) путем суммирования изменений энтропий элементарных этапов (переходов, событий).
|
Данный подход позволяет избежать вычисление вероятности сложных событий.
Второй подход основывается на использовании условных вероятностей событий. Последние иногда рассчитать довольно сложно.
Таким образом, энтропия выступает в качестве меры хаоса, беспорядка и ее снижение означает увеличение организации.
Для информационных систем степень организации очень часто зависит от количества информации, которая может быть использована для управления.