Информатика – это наука об информационных процессах, о моделях, об алгоритмах и алгоритмизации, о программах и программировании, об исполнителях алгоритмов и различных исполняющих системах об их использовании в обществе, в природе, в познании [1].
3 основыне ветви:
1.Теоретическая информатика изучает теоретические проблемы информационных сред.
2.Практическая информатика изучает практические проблемы информационных сред.
3.Техническая информатика изучает технические проблемы информационных сред.
Алфавит – конечное множество различных знаков, символов, для которых определена операция конкатенации (присоединения символа к символу или цепочке символов); с ее помощью по определенным правилам соединения символов и слов можно получать слова (цепочки знаков) и словосочетания (цепочки слов) в этом алфавите (над этим алфавитом).
Буквой или знаком называется любой элемент x.
Длиной |p| некоторого слова p над алфавитом Х называется число составляющих его символов.
Информация – это некоторая упорядоченная последовательность сообщений, имеющих конкретный смысл.
14 Основные свойства информации:
- полнота;
- актуальность;
- адекватность;
- понятность;
- достоверность;
- массовость;
- устойчивость;
- ценность и др.
· Информация актуализируется с помощью различной формы сообщений – определенного вида сигналов, символов.
· Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя.
· Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.
· Информация по стадии ее использования бывает первичная и вторичная.
· Информация по ее полноте бывает избыточная, достаточная и недостаточная.
|
· Информация по доступу к ней бывает открытая и закрытая.
Мера информации.
Любые сообщения измеряются в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах, петабайтах и эксабайтах, а кодируются, например, в компьютере, с помощью алфавита из нулей и единиц, записываются и реализуются в ЭВМ в битах.
Приведем основные соотношения между единицами измерения сообщений:
1 бит (binary digit– двоичное число) = 0 или 1,
1 байт = 8 бит,
1 килобайт (1Кб) = 213 бит,
1 мегабайт (1Мб) = 223 бит,
1 гигабайт (1Гб) = 233 бит,
1 терабайт (1Тб) = 243 бит,
1 петабайт (1Пб) = 253 бит,
1 эксабайт (1Эб) = 263 бит.
Мера информации – критерий оценки количества информации. Обычно она задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события.
Рассмотрим различные меры информации. Возьмем меру Р. Хартли. Пусть известны N состояний системы S (N - число опытов с различными, равновозможными, последовательными состояниями системы). Если каждое состояние системы закодировать двоичными кодами, то длину кода d необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N:
Логарифмируя это неравенство, можно записать:
Наименьшее решение этого неравенства или мера разнообразия множества состояний системы задается формулой Р. Хартли:
H = log2N (бит).
Если во множестве X = {x1, x2,..., xn} искать произвольный элемент, то для его нахождения (по Хартли) необходимо иметь не менее log2n (единиц) информации.
|
Уменьшение Н говорит об уменьшении разнообразия состояний N системы.
Увеличение Н говорит об увеличении разнообразия состояний N системы.
Мера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах состояния системы не равновероятны.
Для таких систем используют более подходящую меру К. Шеннона. Мера Шеннона оценивает информацию отвлеченно от ее смысла.