ГОУ СПО ТПСК № 57
Самостоятельная работа по информатике
По теме: «Представление информации количество и единицы измерения информации »
Выполнила студентка группы 1ИС-01
Ткаченко Ирина
Проверил: Монастырёва Галина Анатольевна
Г. Москва
Г.
Количество и единицы измерения информации.
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).
Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.
Определить понятие “количество информации” довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к “объемному” подходу.
Информация может существовать в виде:
• текстов, рисунков, чертежей, фотографий;
• световых или звуковых сигналов;
• радиоволн;
• электрических и нервных импульсов;
• магнитных записей;
• жестов и мимики;
• запахов и вкусовых ощущений;
• хромосом, посредством которых передаются по наследству признаки и свойства организмов;
• и т.д. (приведите примеры других видов существования информации).
Свойства информации (с точки зрения бытового подхода к определению информации):
• релевантность — способность информации соответствовать нуждам (запросам) потребителя;
• полнота — свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект или процесс;
• своевременность — способность информации соответствовать нуждам потребителя в нужный момент времени;
• достоверность — свойство информации не иметь скрытых ошибок. Достоверная информация со временем может стать недостоверной, если устареет и перестанет отражать истинное положение дел;
• доступность — свойство информации, характеризующее возможность ее получения данным потребителем;
• защищенность — свойство, характеризующее невозможность несанкционированного использования или изменения информации;
• эргономичность — свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.
Бит — минимальная единица измерения информации, при вероятностном подходе к измерению информации, принятом в теории информации, это количество информации, уменьшающее неопределенность знаний в 2 раза.
Связь между единицами измерения информации: •* 1 байт = 8 бит,
• 1 Кб (килобайт) = 2ю (1024) байт = 213 бит;
• 1 Мб (мегабайт) = 210 (1024) Кб = = 2го (1048576) байт = 223 бит;
• 1 Гб (гигабайт) = 210Мб = 220 Кб = 230 байт =
= 233 бит;
• 1 Тб (терабайт) = 210 Гб = 220Мб = 230 Кб = = 240 байт = 243 бит.
Базовые понятия
Информация, подходы к определению информации, виды информации, свойства информации; бит, байт, килобайт; вероятностный подход к измерению информации, объемный подход к измерению информации.
Информация относится к фундаментальным, неопределяемым понятиям науки информатика. Тем не менее смысл этого понятия должен быть разъяснен. Предпримем попытку рассмотреть это понятие с различных позиций.
Термин информация происходит от латинского слова informatio, что означает сведения, разъяснения, изложение. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:
• в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;
• в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);
• в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;
• в теории информации под информацией понимают сведения об объектах и явлениях окружающей
От редакции. В № 6—9 мы опубликовали материалы для подготовки к экзамену в 9-м классе. Начиная с этого номера будут публиковаться материалы для 11-го класса. При этом мы рассматриваем билеты для уровня Б (см. № 5), так как билеты для уровня А являются их подмножеством.
среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся степень неопределенности, неполноты знаний о них.
Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объем сообщения.
Человек воспринимает с помощью органов чувств следующую информацию:
• визуальная (восприятие зрительных образов, различение цветов и т.д.) — с помощью зрения;
• звуковая (восприятие музыки, речи, сигналов, шума и т.д.) — с помощью слуха;
• обонятельная (восприятие запахов) — с помощью обоняния;
• вкусовая (восприятие посредством вкусовых рецепторов языка) — с помощью вкуса;
• тактильная (посредством кожного покрова восприятие информации о температуре, качестве предметов и т.д.) — с помощью осязания.