Формы представления информации




Информатика

Задачи, связанные с хранением, передачей и обработкой информации, человеку приходилось решать во все времена: требовалось передавать знания из поколения в поколения, искать нужные книги в хранилищах, шифровать секретную переписку. К концу XIX века количество документов в библиотеках стало настолько велико, что возникла необходимость применить научный подход к задачам хранения и поиска накопленной информации. В это время зародилось новое научное направление, в котором изучалась документальная информация, т. е. информация в виде документов (книг, журналов, статей и т. п.). В английском языке оно получило название information science (информационная наука, наука об информации).

Применение компьютерной техники значительно увеличило возможности людей в области работы с информацией, позволив автоматизировать рутинную работу. Считается, что слово «информатика» в современном значении образовано в результате объединения двух слов: «информация* и «автоматика». Таким образом, получается «автоматическая работа с информацией». В английском языке существует близкое по значению выражение computer science (наука о компьютерах).

Современная информатика, которая стала самостоятельной наукой в 70-х годах XX века, изучает теорию и практику обработки информации с помощью компьютерных систем. Обычно к информатике относят следующие научные направления:

• теоретическую информатику (теорию информации, теорию кодирования, математическую логику, теорию автоматов и др.);

• вычислительную технику (устройство компьютеров и компьютерных сетей);

• алгоритмизацию и программирование (создание алгоритмов и программ);

• прикладную информатику (персональные компьютеры, прикладные программы, информационные системы и т. д.);

• искусственный интеллект (распознавание образов, понимание речи, машинный перевод, логические выводы, алгоритмы самообучения)

Что такое информация?

Латинское слово informatio переводится как «разъяснение», «сведения». В быту под информацией мы обычно понимаем любые сведения или данные об окружающем нас мире и о нас самих. Однако дать общее определение информации весьма непросто. Более того, в каждой области знаний слово «информация» имеет свой смысл.

Попробуем посмотреть на информацию с разных сторон и попытаться выявить некоторые её свойства.

Прежде всего информация «бестелесна», или нематериальна, она не имеет формы, размеров, массы. С этой точки зрения информация — это то содержание, которое человек с помощью своего сознания «выделяет» из окружающей среды.

Информация характеризует разнообразие (неоднородность) в окружающем мире.

Зачем вообще нам нужна информация? Дело в том, что наше знание всегда в чём-то неполно, в нём есть неопределенность. Например, вы стоите на остановке и не знаете, на каком именно автобусе вам нужно ехать в гости к другу (его адрес известен). Неопределённость мешает вам решить свою задачу. Нужный номер автобуса можно определить, например, по карте с маршрутами транспорта. Очевидно, что при этом вы получите новую информацию, которая увеличит знание и уменьшит неопределённость.

При получении информации уменьшается неопределённость знания.

Как получают информацию

Человек получает информацию через свои органы чувств: глаза, уши, рот, нос и кожу. Поэтому получаемую нами информацию можно разделить на следующие виды:

• зрительная информация (визуальная, от англ, visual) — поступает через глаза (по разным оценкам, это 80-90% всей получаемой нами информации);

• звуковая информация (аудиальная, от англ, audio) — поступает через уши;

• вкусовая информация — поступает через язык;

• обонятельная информация (запахи) — поступает через нос;

• тактильная информация — мы её получаем с помощью осязания (кожи), «на ощупь».

Формы представления информации

Информация может быть представлена (зафиксирована, закодирована) в различных формах:

• текстовая информация — последовательность символов (букв, цифр, других знаков); в тексте важен порядок их расположения, например КОТ и ТОК — два разных текста, хотя они состоят из одинаковых символов;

• числовая информация;

• графическая информация (рисунки, картины, чертежи, карты, схемы, фотографии и т. п.);

• звуковая информация (звучание голоса, мелодии, шум, стук, шорох и т. п.);

• мультимедийная информация, которая объединяет несколько форм представления информации (например, видеоинформация).

Обратим внимание, что одна и та же информация может быть представлена по-разному. Например, результаты измерения температуры в течение недели можно сохранить в виде текста, чисел, таблицы, графика, диаграммы, видеофильма и т.д.

В научной литературе информацию, зафиксированную (закодированную) в какой-то форме, называют данными, имея в виду, что компьютер может выполнять с ними какие-то операции, но не способен понимать смысл.

Для того чтобы данные стали информацией, их нужно понять и осмыслить, а на это способен только человек. Если человек, получающий сообщение, знает язык, на котором оно записано, он может понять смысл этого сообщения, т. е. получить информацию. Обрабатывая и упорядочивая информацию, человек выявляет закономерности — получает знания.

Свойства информации

В идеале информация должна быть:

• объективной (не зависящей от чьего-либо мнения);

• понятной для получателя;

• полезной (позволяющей получателю решать свои задачи);

• достоверной (полученной из надёжного источника);

• актуальной (значимой в данный момент);

• полной (достаточной для принятия решения).

Конечно, информация не всегда обладает всеми этими свойствами.

 

Материальный носитель — это объект или среда, которые могут содержать информацию.

Изменения, происходящие с информацией (т. е. изменения свойств носителя), называются информационными процессами. Все эти процессы можно свести к двум основным:

• передача информации (данные передаются с одного носителя на другой);

• обработка информации (данные изменяются).

Передача информации

При передаче информации всегда есть два объекта — источник и приёмник информации. Эти роли могут меняться, например во время диалога каждый из участников выступает то в роли источника, то в роли приёмника информации.

Информация проходит от источника к приёмнику через канал связи, в котором она должна быть связана с каким-то материальным носителем. Для передачи информации свойства этого носителя должны изменяться со временем. Например, если включать и выключать лампочку, то можно передавать разную информацию, например, с помощью азбуки Морзе.


Информация поступает по каналу связи в виде сигналов, которые приёмник может обнаружить с помощью своих органов чувств (или датчиков) и «понять» (раскодировать).

Сигнал — это изменение свойств носителя, которое используется для передачи информации.

Скорость передачи данных — это количество битов (байтов, Кбайт и т. д.), которое передаётся по каналу связи за единицу времени (например, за 1 с).

Пропускная способность любого реального канала связи ограничена. Это значит, что есть некоторая наибольшая возможная скорость передачи данных, которую принципиально невозможно превысить.

Основная единица измерения скорости — биты в секунду (бит/с, англ, bps — bits per second). Для характеристики быстродействующих каналов применяют килобиты в секунду (Кбит/с) и мегабиты в секунду (Мбит/с), иногда используют байты в секунду (байт/с) и килобайты в секунду (Кбайт/с).

Информационный объём I данных, переданных по каналу за время t, вычисляется по формуле I = v • t, где и — скорость передачи данных. Например, если скорость передачи данных равна 512 000 бит/с, за 1 минуту можно передать файл объёмом

512 000 бит/с * 60 с = 30 720 000 битов = 3 840 000 байтов = 3075 Кбайт.

Обработка информации

Обработка — это изменение информации: её формы или содержания. Среди важнейших видов обработки можно назвать:

• создание новой информации, например решение задачи с помощью вычислений или логических рассуждений;

• кодирование — запись информации с помощью некоторой системы знаков для передачи и хранения; один из вариантов кодирования — шифрование, цель которого — скрыть смысл (содержание) информации от посторонних;

• поиск информации, например, в книге, в библиотечном каталоге, на схеме или в Интернете;

• сортировка — расстановка элементов списка в заданном порядке, например расстановка чисел по возрастанию или убыванию, расстановка слов по алфавиту; задача сортировки — облегчить поиск и анализ информации.

Хранение информации

Для хранения информации человек, прежде всего, использует свою память. Можно считать, что мозг — это одно из самых совершенных хранилищ информации, во многом превосходящее компьютерные средства.

В любом случае информация хранится на каком-то носителе, который обладает «памятью», т. е. может находиться в разных состояниях, переходить из одного состояния в другое при каком-то внешнем воздействии, и сохранять своё состояние.

При записи информации свойства носителя меняются: на бумагу наносятся текст и рисунки; на магнитных дисках и лентах намагничиваются отдельные участки; на оптических дисках образуются области, по-разному отражающие свет. При хранении эти свойства остаются неизменными, что позволяет потом читать (получать) записанную информацию.

Отметим, что процессы записи и чтения — это процессы передачи информации.

Что такое бит?

Рассмотрим электрическую лампочку, которая может находиться в двух состояниях: «горит» и «не горит». Тогда на вопрос «Горит ли сейчас лампочка» есть два возможных варианта ответа, которые можно обозначить цифрами 1 («горит») и 0 («не горит») (рис. 1.5). Поэтому ответ на этот вопрос (полученная информация) может быть записан как 0 или I1.

Цифры 0 и 1 называют двоичными, и с этим связано название единицы измерения количества информации — бит. Английское слово bit — это сокращение от выражения binary digit — «двоичная цифра». Впервые слово «бит» в этом значении использовал американский инженер и математик Клод Шеннон в 1948 г.

Бит — это количество информации, которую можно записать (закодировать) с помощью одной двоичной цифры.


А если возможных вариантов не два, а больше? Понятно, что в этом случае количество информации будет больше, чем 1 бит. Представим себе, что на вокзале стоят 4 одинаковых поезда, причём только один из них проследует в Москву. Сколько битов понадобится для того, чтобы записать информацию о номере платформы, где стоит поезд на Москву?

Очевидно, что одного бита недостаточно, так как с помощью одной двоичной цифры можно закодировать только два варианта — коды 0 и 1. А вот два бита дают как раз 4 разных сообщения: 00, 01, 10 и 11. Теперь нужно сопоставить эти коды номерам платформ, например, так: 1 — 00, 2 — 01, 3 — 10, 4 — 11. Тогда сообщение 10 говорит о том, что поезд на Москву стоит на платформе № 3. Это сообщение несёт 2 бита информации.

Три бита дают уже 8 вариантов: 000, 001, 010, 011, 100, 101, 110 и 111. Таким образом, каждый бит, добавленный в сообщение, увеличивает количество вариантов в 2 раза.

I, битов 1 2 3 4 5 6 7 8 9 10

N, вариантов 2 4 8 16 32 64 128 256 512 102

Наверно, вы заметили, что все числа в нижней строчке таблицы — это степени числа 2: N = 2I.

Осталось выяснить, чему равно количество информации, если выбор делается, скажем, из 5 возможных вариантов (или из любого количества, не являющегося степенью числа 2). С точки зрения приведённого выше рассуждения случаи выбора из 5, 6, 7 и 8 вариантов не различаются — для кодирования двух двоичных цифр мало, а трёх — достаточно. Поэтому использование трёх битов для кодирования одного из 5 возможных вариантов избыточно, ведь три бита позволяют закодировать целых 8 вариантов! Значит, выбор из 5 вариантов даёт меньше трёх битов информации.

Чтобы количественно измерить разницу между, скажем, 5 и 8 вариантами, придется допустить, что количество информации в битах может быть дробным числом. При этом информация, полученная при выборе из 5 вариантов, больше, чем 2 бита, но меньше, чем 3 бита. Точную формулу для ее вычисления получил в 1928 г. американский инженер Ральф Хартли. Эта формула использует понятие логарифма:I=log2N.

Другие единицы

Считать большие объёмы информации в битах неудобно хотя бы потому, что придётся работать с очень большими числами (миллиардами, триллионами и т. д.). Поэтому стоит ввести более крупные единицы.

1 байт = 8 битов.

Сразу возникает вопрос: а почему не 10 битов? Дело в том, что слово «байт » (англ, byte) имеет второе значение — так называют наименьший блок (ячейку) памяти, который процессор компьютера может считать и обработать за один раз. Для современных компьютеров он состоит из 8 элементов, каждый из которых хранит 1 бит данных. Это связано с тем, что до недавнего времени при обработке текста использовался набор из 256 символов, так что для кодирования каждого символа было нужно 8 битов.

1Кбайт (килобайт) = 1024 байта = 210 байта = 213 битов.

1 Мбайт (мегабайт) = 1024 Кбайт = 210 Кбайт = 220 байтов = 223 битов.

1 Гбайт (гигабайт) = 1024 Мбайт.

1 Тбайт (терабайт) = 1024 Гбайт.

 

Структура информации



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2017-06-11 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: