Все это заставляет нас признать недостаточной расхожую точку зрения, вошедшую в обиход благодаря Винеру, для которого значение какого — либо сообщения и информация, содержащаяся в нем, являются синонимами, связанными с понятиями порядка и системы вероятности и противопоставленными понятиям энтропии и неупорядоченности.
Тем не менее мы уже отмечали, что информация зависит также от ее источника, то есть вполне понятно, что, если, например, поздравление с днем рождения исходит от председателя Совета министров СССР, непредсказуемость этого поздравления станет для нас неожиданным увеличением информации. Это, однако, подтверждает как раз тот факт, что, как мы говорили вначале, информация, будучи дополнением, связана с оригинальностью, не — вероятностью. Но как это согласовать с тем, что чем вероятнее сообщение, чем оно предсказуемее в любой своей части, тем больше в нем смысла? Ясно, что фраза «каждой весной распускаются цветы» имеет вполне ясное, совершенно недвусмысленное значение; она наделена максимальным смыслом и всевозможной доступностью, однако не добавляет ничего к тому, что нам уже известно.
Говоря языком нашего прежнего разговора об информации, можно сказать, что она не
сообщает нам ничего особенного. Быть может, информация и смысл (значение) — не одно и то же?
Читая Винера, мы не можем прийти к такому заключению: для него информация означает порядок, а ее противоположность измеряется энтропией. Верно, однако, и то, что теорией информации Винер пользуется для изучения коммуникативных возможностей электронного мозга, и ему надо определить средства, с помощью которых то или иное сообщение становится понятным. Таким образом, он не проводит никакого различия между информацией и смыслом. Тем не менее в каком — то месте он делает чрезвычайно важное утверждение: «Для того, чтобы способствовать накоплению общего объема информации, которым располагает сообщество, какой — либо отрывок этой информации должен сообщать что — то принципиально отличное от совокупной информации, которой это сообщество уже располагает»; в этой связи в качестве примера он вспоминает о великих деятелях искусства, заслуга которых состояла в том, что определенным оборотам речи и приемам они придавали своеобразие, а причину смыслового оскудения их произведений усматривает в том, что со временем все, что когда — то было ими сделано и сказано впервые и воспринималось как совершенно самобытное, публика привыкла воспринимать как нечто общезначимое и банальное10.
|
Размышляя на эту тему, мы замечаем, что повседневная коммуникация полна выражений, которые не согласуются с грамматическими или синтаксическими обыкновениями и именно по этой причине привлекают наше внимание и сообщают нам нечто новое, даже если отклоняются от правил, в соответствии с которыми обычно осуществляется передача смысла. Получается так, что (если рассматривать язык как систему вероятности) некоторые конкретные элементы неупорядоченности увеличивают объем информации, содержащейся в сообщении.
Передача информации
Вернемся ненадолго к классическому примеру из кинетической теории газов: представим сосуд, наполненный молекулами газа, которые движутся с одинаковой скоростью. Если движение регулируется чисто статистическими законами, энтропия системы очень высока, и — даже если мы можем предсказать общее поведение системы — нам нелегко предугадать, каким будет следующее положение той или иной молекулы; иными словами, молекула может двигаться самыми разными способами, она, так сказать, открыта всем возможностям, мы знаем, что она может занять самые разные положения, но не знаем, какие именно. Для того, чтобы лучше определить поведение отдельных молекул, нам потребовалось бы дифференцировать их скорость, одним словом, придать системе порядок и уменьшить в ней энтропию: поступив таким образом, мы увеличим возможность того, что молекула будет вести себя так, а не иначе, но ограничим число ее изначальных разнообразных возможностей (подчинив их определенному коду).
|
Итак, если я хочу что — либо знать о поведении отдельной частицы, информация, которой я ищу, противостоит энтропии, но если я хочу знать все возможные варианты поведения любой частицы, тогда информация, которую я ищу, будет прямо пропорциональна энтропии; привнося в систему порядок и уменьшая в ней энтропию, я узнаю много в каком — то одном смысле, но много меньше в другом.
То же самое происходит и с передачей информации.
Постараемся это пояснить ссылкой на формулу, с помощью которой обычно выражается величина какой — либо информации:
I = N log h
где «h» представляет собой число элементов, из которых делается выбор, а N — количество вариантов выбора, которые можно сделать (в случае с двумя игральными костями h = 6, а N = 2; если же мы имеем шахматную доску, то h = 64, а N = все ходы, которые допускаются правилами шахматной игры).
|
Если же речь идет о системе с высокой энтропией (где могут осуществиться все комбинации), значения величин N и h оказываются очень большими и, следовательно, самой высокой оказывается и величина той информации о поведении одного или нескольких элементов системы, которую можно было бы передать. Однако очень трудно сообщить столько бинарных вариантов выбора, сколько необходимо для того, чтобы обособить выбранный элемент и определить его сочетания с другими элементами.
Каким образом можно легко сообщить ту или иную информацию? Это можно сделать, сокращая число задействованных элементов и вариантов выбора, вводя какой — либо код, систему правил, которая предусматривает наличие строго определенного числа элементов, исключает некоторые комбинации и допускает лишь оговоренные. В этом случае можно будет сообщить информацию через умеренное число бинарных вариантов выбора. Однако значения величин N и h в таком случае уменьшаются и, следовательно, уменьшается величина полученной информации.
Таким образом, чем больше информация, тем труднее как — то ее сообщить, и чем яснее какое — либо сообщение, тем меньше в нем информации.
Вот почему в своем классическом труде по теории информации12 Шеннон и Уивер осмысляют информацию как величину, прямо пропорциональную энтропии. Другие исследователи тоже признают, что Шеннон, один из основателей этой теории, обращает внимание как раз на этот аспект информации13, но все они напоминают о том, что, если мы понимаем информацию именно в таком узко статистическом смысле, она не имеет никакого отношения к тому, истинно или ложно содержание сообщения (не имеет отношения к его «значению»). Мы лучше все это усвоим, если обратимся к некоторым высказываниям Уоррена Уивера, которые содержатся в его очерке, посвященном популяризации математического аспекта информации14: «В этой новой теории слово «информация» относится не столько к тому, что говорится, сколько к тому, что могло бы быть сказанным, то есть информация выступает как мера нашей свободы в выборе сообщения… Необходимо помнить, что в математической теории коммуникации наш интерес обращен не к значению отдельных сообщений, а к общей статистической природе источника информации…
Понятие «информации», изложенное в этой теории, на первый взгляд кажется странным и неудовлетворительным: неудовлетворительным потому, что не имеет никакого отношения к понятию «значения», а странным потому, что оно не только относится к какому — то отдельному сообщению, но, в первую очередь, учитывает статистический характер всей совокупности сообщений; оно странно еще и потому, что в таком статистическом контексте слова «информация» и «неопределенность» тесно связаны между собой».
Этим мы вернули наш долгий разговор о теории информации к основной для нас проблеме и тем не менее мы должны задаться вопросом, законно ли все — таки применять такие понятия как орудия исследования к вопросам эстетики, хотя бы потому, что, как теперь ясно, статистический смысл информации гораздо шире коммуникативного.
Статистически я имею информацию тогда, когда (оставаясь по эту сторону всякого порядка) вдобавок располагаю всем перечнем вероятного развития на уровне источника информации.
В коммуникативном же плане я имею информацию тогда, когда:
1) находясь в изначальной неупорядоченности очерчиваю и утверждаю некий порядок как систему вероятности, то есть устанавливаю определенный код;
2) находясь в этой системе и не возвращаясь к тому, что ей предшествовало, я (излагая сообщение, которое является двусмысленным по отношению к установленным правилам кода) ввожу элементы неупорядоченности, которые вступают в напряженную диалектическую связь с
основным порядком (сообщение приводит код к кризису).
Итак, нам придется выяснить, как сказывается использование этой намеренной неупорядоченности на сообщении, содержащемся в поэтической речи, причем здесь надо помнить о том, что эту неупорядоченность если и можно отождествить со статистическим понятием энтропии, то только в переносном смысле: неупорядоченность, несущая сообщение, является таковой лишь по отношению к предшествовавшему ей порядку.
Литература
1. Винер Н. Кибернетика. Пер. с англ. М., "Советское радио", 1968.
2. Ланге О. Введение в экономическую кибернетику. Пер. с польск. М., "Советское радио", 1964.
3. Немчинов В. С. Избранные произведения. Т. 3. М., "Наука",- 1967.
4. Проблемы оптимального функционирования экономики. М., "Наука", 1972.
5. Эшби У. Р. Введение в кибернетику. Пер. с англ. М., Изд-во иностр. лит., 1959.
6. Эшби У. Р. Конструкция мозга. Пер. с англ. М., "Мир", 1964.