Вероятность | 0,9 | 0,6 | 0,5 | 0,3 | 0,2 | 0,1 | 0,02 | 0,001 |
Частная неопределенность, бит | 0,152 | 0,73697 | 1,73697 | 2,32193 | 3,32193 | 5,64386 | 9,96578 |
Как видно из табл. 19, чем меньше вероятность события (верхняя строка таблицы), тем больше его частная неопределенность (нижняя строка таблицы). Так как частная неопределенность измеряется в битах, то утверждение С. С. Овчинского, что маловероятные события несут наибольшую информацию, является справедливым. Действительно, наступление события, имеющего вероятность 0,9, несет информацию в количестве 0,152 бит, тогда как событие, имеющее вероятность 0,001, несет информацию, равную 9,96 бит.
Подобные вышеприведенному изложения основных положений теории информации, в частности формул (1) и (2) и вытекающих из них закономерностей, являются типичными для криминалистической литературы. Проиллюстрированная нами одна из закономерностей теории информации хотя и важна для более глубокого понимания количественного характера приведенной С. С. Овчинским формулировки, однако не приводит к решению криминалистических задач.
Основным недостатком всех без исключения криминалистических публикаций по теории информации является то, что до практического применения математического аппарата теории информации дело не доходит. Все авторы ограничиваются достаточно общими рассуждениями, переписанными из технической литературы.
По нашему мнению, для устранения этого недостатка требуется, прежде всего, конкретизировать понятие «информация» посредством определения, что собой представляет бит информации – единица измерения. Тем самым превратить в нечто конкретное абстрактное представление о том, что такое 9,96 бит по отношению к событию, имеющему вероятность 0,001 (табл. 19).
|
Для решения этой задачи используем понятие «алгоритмическая поисковая процедура» (АПП). Графически АПП можно изобразить в виде дерева. Начинаясь из одной точки, дерево делится каждый раз на две ветви, поэтому используется двоичный логарифм. При делении на три ветви следует использовать логарифм по основанию 3, при использовании десятичной системы исчисления применяется логарифм по основанию 10. Использование деления на два объясняет название единицы измерения информации «бит». Число бит соответствует длине пути по дереву от его начала до этого элемента. Так, для элемента, имеющего вероятность 0,001, длина пути по дереву составляет 10 шагов (число 9,96 округлено в большую сторону).
Итак, под количеством бит информации нами понимается длина пути (высота дерева) к этому событию. наступление события означает, что весь путь по дереву пройден, то есть информация получена. Таким образом, количество информации, полученное в результате наступления события, представляет собой «ретроспективно» оцениваемый путь, пройденный исследователем по бинарному дереву и выраженный числом шагов – бит.
Если обозначить длину пути по дереву символом l, то для каждого i- го события в дереве будет путь, длиной li. Этот путь равен li = –log2p(х i), то есть частной неопределенности этого события.
Теперь можно переформулировать выражение С. С. Овчинского, используя понятие частной неопределенности и данные табл. 19. Длина пути по дереву поиска к возможному событию x i должна быть тем меньше, чем больше вероятность этого события, и наоборот. Наибольшая длина пути в дереве поиска определяется событием, имеющим наименьшую вероятность.
|
Таким образом, если обозначить символом l0 длину пути для события, имеющего наименьшую вероятность, то значение l0 представит собой необходимую максимальную высоту (длину наибольшей ветви) дерева поиска, позволяющую обнаружить любой элемент в множестве.
В том случае, когда все события равновероятны (то есть p(x i)=1/N), то и длина ветвей дерева к каждому из них будет одинакова. Например, в случае двух событий, когда вероятность каждого из них составляет ½, то есть p(x i)= 0,5, то частная неопределенность каждого равна 1 (табл. 19).
Прежде чем дальше исследовать вопросы применения теории информации в криминалистике, требуется еще раз подчеркнуть тот факт, что в шенноновском подходе количественная оценка информации в битах основывается на предварительном установлении вероятности событий.
Рассмотрим некоторые наиболее типичные попытки использования теории информации в криминалистике. В экспериментальном учебнике «Налоговое расследование» глава 4 посвящена информационному аспекту налогового расследования, и дан краткий обзор современных теоретико-информационных представлений. Указывая появившуюся в 1948 г. работу К. Шеннона «Математическая теория связи» в качестве основы современных представлений в этой области, авторы ссылаются на исследования советских и зарубежных ученых (А. Н. Колмогорова, А. Я. Хинчина, Р. Л. Добрушина, А. Н. Железнова, Д, Гбора, Р. Фапно, Ф. Вудворта и других), в которых теоретико-информационные представления К. Шеннона получили дальнейшее развитие.
|
Указанный экспериментальный учебник, к сожалению, типичен по изложению информационного подхода, то есть в нем количественные аспекты теоретико-информационных представлений не получили какого-либо, хотя бы минимального, отражения. При этом прикладные аспекты собственно шенноновского подхода сведены к следующему наивному примеру: «Например, пусть конечная цель следователя состоит в изобличении преступника. Допустим, что после ознакомления с имеющимися фактами следственной бригадой разработано несколько следственных версий. Тогда информация, поступающая в результате оперативно-розыскных мероприятий, свидетельских показаний, результатов проведенных экспертиз, иных прямых и косвенных улик уменьшает число версий и первоначальную неопределенность выбора той или иной версии»[138].
Остальное место занимают общие рассуждения на тему понятий «информация» и «информационный подход». Итогом проведенного авторами анализа «современного состояния взглядов на понятие “информация”» является вывод, заключающийся в том, что «в связи с широким распространением информационных представлений в различных сферах знаний и разнообразием теорий ее определения необходим научно-обоснованный инструментарий измерения информации на основе разработки количественных мер, максимально соответствующих проблематике проводимых исследований»[139].
Сформулированная авторами задача использования количественного подхода в теоретико-информационных представлениях решена К. Шенноном в 1948 году. Многие технические науки эффективно применяют математический аппарат теории информации. Однако проблема применения шенноновского теоретико-информационного количественного подхода в практике расследования преступлений до настоящего времени не решена.
Применение шенноновского подхода в криминалистике является актуальной задачей в связи с тем, что на его основе открывается возможность построения математической модели процесса познания. Как было указано, впервые такую попытку сделал А. А. Эйсман в 1963 г., который считал, что преступление по своей сути представляет собой сложное событие, характеризующееся в начале расследования некоторой степенью неопределенности (энтропией). Уровень неопределенности снижается по мере того, как выясняются отдельные обстоятельства дела, собираются доказательства[140]. Ранее было указано, что положительно оценивая теоретические достижения А. А. Эйсмана, Н. С. Полевой совершенно точно отметил ключевую проблему, отсутствие решения которой не позволило разработать прикладные аспекты шенноновского подхода.
Сведем указанные ранее данные Е. Н. Асташкиной, Н. А. Марочкиным, А. Е. Михальчуком, В. Я. Решетниковым о местонахождениях материальных последствий посягательства к табличной форме[141].
Таблица 20