Информатика
Задачи, связанные с хранением, передачей и обработкой информации, человеку приходилось решать во все времена: требовалось передавать знания из поколения в поколения, искать нужные книги в хранилищах, шифровать секретную переписку. К концу XIX века количество документов в библиотеках стало настолько велико, что возникла необходимость применить научный подход к задачам хранения и поиска накопленной информации. В это время зародилось новое научное направление, в котором изучалась документальная информация, т. е. информация в виде документов (книг, журналов, статей и т. п.). В английском языке оно получило название information science (информационная наука, наука об информации).
Применение компьютерной техники значительно увеличило возможности людей в области работы с информацией, позволив автоматизировать рутинную работу. Считается, что слово «информатика» в современном значении образовано в результате объединения двух слов: «информация* и «автоматика». Таким образом, получается «автоматическая работа с информацией». В английском языке существует близкое по значению выражение computer science (наука о компьютерах).
Современная информатика, которая стала самостоятельной наукой в 70-х годах XX века, изучает теорию и практику обработки информации с помощью компьютерных систем. Обычно к информатике относят следующие научные направления:
• теоретическую информатику (теорию информации, теорию кодирования, математическую логику, теорию автоматов и др.);
• вычислительную технику (устройство компьютеров и компьютерных сетей);
• алгоритмизацию и программирование (создание алгоритмов и программ);
• прикладную информатику (персональные компьютеры, прикладные программы, информационные системы и т. д.);
|
• искусственный интеллект (распознавание образов, понимание речи, машинный перевод, логические выводы, алгоритмы самообучения)
Что такое информация?
Латинское слово informatio переводится как «разъяснение», «сведения». В быту под информацией мы обычно понимаем любые сведения или данные об окружающем нас мире и о нас самих. Однако дать общее определение информации весьма непросто. Более того, в каждой области знаний слово «информация» имеет свой смысл.
Попробуем посмотреть на информацию с разных сторон и попытаться выявить некоторые её свойства.
Прежде всего информация «бестелесна», или нематериальна, она не имеет формы, размеров, массы. С этой точки зрения информация — это то содержание, которое человек с помощью своего сознания «выделяет» из окружающей среды.
Информация характеризует разнообразие (неоднородность) в окружающем мире.
Зачем вообще нам нужна информация? Дело в том, что наше знание всегда в чём-то неполно, в нём есть неопределенность. Например, вы стоите на остановке и не знаете, на каком именно автобусе вам нужно ехать в гости к другу (его адрес известен). Неопределённость мешает вам решить свою задачу. Нужный номер автобуса можно определить, например, по карте с маршрутами транспорта. Очевидно, что при этом вы получите новую информацию, которая увеличит знание и уменьшит неопределённость.
При получении информации уменьшается неопределённость знания.
Как получают информацию
Человек получает информацию через свои органы чувств: глаза, уши, рот, нос и кожу. Поэтому получаемую нами информацию можно разделить на следующие виды:
|
• зрительная информация (визуальная, от англ, visual) — поступает через глаза (по разным оценкам, это 80-90% всей получаемой нами информации);
• звуковая информация (аудиальная, от англ, audio) — поступает через уши;
• вкусовая информация — поступает через язык;
• обонятельная информация (запахи) — поступает через нос;
• тактильная информация — мы её получаем с помощью осязания (кожи), «на ощупь».
Формы представления информации
Информация может быть представлена (зафиксирована, закодирована) в различных формах:
• текстовая информация — последовательность символов (букв, цифр, других знаков); в тексте важен порядок их расположения, например КОТ и ТОК — два разных текста, хотя они состоят из одинаковых символов;
• числовая информация;
• графическая информация (рисунки, картины, чертежи, карты, схемы, фотографии и т. п.);
• звуковая информация (звучание голоса, мелодии, шум, стук, шорох и т. п.);
• мультимедийная информация, которая объединяет несколько форм представления информации (например, видеоинформация).
Обратим внимание, что одна и та же информация может быть представлена по-разному. Например, результаты измерения температуры в течение недели можно сохранить в виде текста, чисел, таблицы, графика, диаграммы, видеофильма и т.д.
В научной литературе информацию, зафиксированную (закодированную) в какой-то форме, называют данными, имея в виду, что компьютер может выполнять с ними какие-то операции, но не способен понимать смысл.
|
Для того чтобы данные стали информацией, их нужно понять и осмыслить, а на это способен только человек. Если человек, получающий сообщение, знает язык, на котором оно записано, он может понять смысл этого сообщения, т. е. получить информацию. Обрабатывая и упорядочивая информацию, человек выявляет закономерности — получает знания.
Свойства информации
В идеале информация должна быть:
• объективной (не зависящей от чьего-либо мнения);
• понятной для получателя;
• полезной (позволяющей получателю решать свои задачи);
• достоверной (полученной из надёжного источника);
• актуальной (значимой в данный момент);
• полной (достаточной для принятия решения).
Конечно, информация не всегда обладает всеми этими свойствами.
Материальный носитель — это объект или среда, которые могут содержать информацию.
Изменения, происходящие с информацией (т. е. изменения свойств носителя), называются информационными процессами. Все эти процессы можно свести к двум основным:
• передача информации (данные передаются с одного носителя на другой);
• обработка информации (данные изменяются).
Передача информации
При передаче информации всегда есть два объекта — источник и приёмник информации. Эти роли могут меняться, например во время диалога каждый из участников выступает то в роли источника, то в роли приёмника информации.
Информация проходит от источника к приёмнику через канал связи, в котором она должна быть связана с каким-то материальным носителем. Для передачи информации свойства этого носителя должны изменяться со временем. Например, если включать и выключать лампочку, то можно передавать разную информацию, например, с помощью азбуки Морзе.
Информация поступает по каналу связи в виде сигналов, которые приёмник может обнаружить с помощью своих органов чувств (или датчиков) и «понять» (раскодировать).
Сигнал — это изменение свойств носителя, которое используется для передачи информации.
Скорость передачи данных — это количество битов (байтов, Кбайт и т. д.), которое передаётся по каналу связи за единицу времени (например, за 1 с).
Пропускная способность любого реального канала связи ограничена. Это значит, что есть некоторая наибольшая возможная скорость передачи данных, которую принципиально невозможно превысить.
Основная единица измерения скорости — биты в секунду (бит/с, англ, bps — bits per second). Для характеристики быстродействующих каналов применяют килобиты в секунду (Кбит/с) и мегабиты в секунду (Мбит/с), иногда используют байты в секунду (байт/с) и килобайты в секунду (Кбайт/с).
Информационный объём I данных, переданных по каналу за время t, вычисляется по формуле I = v • t, где и — скорость передачи данных. Например, если скорость передачи данных равна 512 000 бит/с, за 1 минуту можно передать файл объёмом
512 000 бит/с * 60 с = 30 720 000 битов = 3 840 000 байтов = 3075 Кбайт.
Обработка информации
Обработка — это изменение информации: её формы или содержания. Среди важнейших видов обработки можно назвать:
• создание новой информации, например решение задачи с помощью вычислений или логических рассуждений;
• кодирование — запись информации с помощью некоторой системы знаков для передачи и хранения; один из вариантов кодирования — шифрование, цель которого — скрыть смысл (содержание) информации от посторонних;
• поиск информации, например, в книге, в библиотечном каталоге, на схеме или в Интернете;
• сортировка — расстановка элементов списка в заданном порядке, например расстановка чисел по возрастанию или убыванию, расстановка слов по алфавиту; задача сортировки — облегчить поиск и анализ информации.
Хранение информации
Для хранения информации человек, прежде всего, использует свою память. Можно считать, что мозг — это одно из самых совершенных хранилищ информации, во многом превосходящее компьютерные средства.
В любом случае информация хранится на каком-то носителе, который обладает «памятью», т. е. может находиться в разных состояниях, переходить из одного состояния в другое при каком-то внешнем воздействии, и сохранять своё состояние.
При записи информации свойства носителя меняются: на бумагу наносятся текст и рисунки; на магнитных дисках и лентах намагничиваются отдельные участки; на оптических дисках образуются области, по-разному отражающие свет. При хранении эти свойства остаются неизменными, что позволяет потом читать (получать) записанную информацию.
Отметим, что процессы записи и чтения — это процессы передачи информации.
Что такое бит?
Рассмотрим электрическую лампочку, которая может находиться в двух состояниях: «горит» и «не горит». Тогда на вопрос «Горит ли сейчас лампочка» есть два возможных варианта ответа, которые можно обозначить цифрами 1 («горит») и 0 («не горит») (рис. 1.5). Поэтому ответ на этот вопрос (полученная информация) может быть записан как 0 или I1.
Цифры 0 и 1 называют двоичными, и с этим связано название единицы измерения количества информации — бит. Английское слово bit — это сокращение от выражения binary digit — «двоичная цифра». Впервые слово «бит» в этом значении использовал американский инженер и математик Клод Шеннон в 1948 г.
Бит — это количество информации, которую можно записать (закодировать) с помощью одной двоичной цифры.
А если возможных вариантов не два, а больше? Понятно, что в этом случае количество информации будет больше, чем 1 бит. Представим себе, что на вокзале стоят 4 одинаковых поезда, причём только один из них проследует в Москву. Сколько битов понадобится для того, чтобы записать информацию о номере платформы, где стоит поезд на Москву?
Очевидно, что одного бита недостаточно, так как с помощью одной двоичной цифры можно закодировать только два варианта — коды 0 и 1. А вот два бита дают как раз 4 разных сообщения: 00, 01, 10 и 11. Теперь нужно сопоставить эти коды номерам платформ, например, так: 1 — 00, 2 — 01, 3 — 10, 4 — 11. Тогда сообщение 10 говорит о том, что поезд на Москву стоит на платформе № 3. Это сообщение несёт 2 бита информации.
Три бита дают уже 8 вариантов: 000, 001, 010, 011, 100, 101, 110 и 111. Таким образом, каждый бит, добавленный в сообщение, увеличивает количество вариантов в 2 раза.
I, битов 1 2 3 4 5 6 7 8 9 10
N, вариантов 2 4 8 16 32 64 128 256 512 102
Наверно, вы заметили, что все числа в нижней строчке таблицы — это степени числа 2: N = 2I.
Осталось выяснить, чему равно количество информации, если выбор делается, скажем, из 5 возможных вариантов (или из любого количества, не являющегося степенью числа 2). С точки зрения приведённого выше рассуждения случаи выбора из 5, 6, 7 и 8 вариантов не различаются — для кодирования двух двоичных цифр мало, а трёх — достаточно. Поэтому использование трёх битов для кодирования одного из 5 возможных вариантов избыточно, ведь три бита позволяют закодировать целых 8 вариантов! Значит, выбор из 5 вариантов даёт меньше трёх битов информации.
Чтобы количественно измерить разницу между, скажем, 5 и 8 вариантами, придется допустить, что количество информации в битах может быть дробным числом. При этом информация, полученная при выборе из 5 вариантов, больше, чем 2 бита, но меньше, чем 3 бита. Точную формулу для ее вычисления получил в 1928 г. американский инженер Ральф Хартли. Эта формула использует понятие логарифма:I=log2N.
Другие единицы
Считать большие объёмы информации в битах неудобно хотя бы потому, что придётся работать с очень большими числами (миллиардами, триллионами и т. д.). Поэтому стоит ввести более крупные единицы.
1 байт = 8 битов.
Сразу возникает вопрос: а почему не 10 битов? Дело в том, что слово «байт » (англ, byte) имеет второе значение — так называют наименьший блок (ячейку) памяти, который процессор компьютера может считать и обработать за один раз. Для современных компьютеров он состоит из 8 элементов, каждый из которых хранит 1 бит данных. Это связано с тем, что до недавнего времени при обработке текста использовался набор из 256 символов, так что для кодирования каждого символа было нужно 8 битов.
1Кбайт (килобайт) = 1024 байта = 210 байта = 213 битов.
1 Мбайт (мегабайт) = 1024 Кбайт = 210 Кбайт = 220 байтов = 223 битов.
1 Гбайт (гигабайт) = 1024 Мбайт.
1 Тбайт (терабайт) = 1024 Гбайт.
Структура информации