Количество информации как мера уменьшения неопределенности знания




Новый материал..

3. Практическая работа.

4. Домашнее задание. Подведение итогов.

 

Ход урока

Организационный момент:

-Представление, отметка отсутствующих;

-Повторение прошлой темы, ответы на вопросы

 

 

Вопросы:

1) Приведите примеры перехода от хаоса к порядку(увеличения информации) в окружающем мире.

2) Какова физическая природа знака при представление информации в генетическом коде?

Объяснение нового материала:

Количество информации как мера уменьшения неопределенности знания

 

Уменьшение неопределенности знания. Получение ин­формации можно связать с уменьшением неопределенности знания. Это позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим во­прос об определении количества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ров­ную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка».

О Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы бросим монету 10 раз, то «орел» может вы­пасть 7 раз, а решка — 3 раза, если бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, если бросим монету 1000 раз, то «орел» выпа­дет 520 раз, а «решка» — 480 и т. д. В итоге при очень большой серии опытов количества выпадений «орла» и «решки» практически сравняются.

Перед броском существует неопределенность нашего зна­ния (возможны два события), и как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что моне­та в данный момент находится в определенном положении (на­пример, «орел»). Это сообщение приводит к уменьшению не­определенности нашего знания в два раза, так как из двух возможных равновероятных событий реализовалось одно (рис.1).

 

. Возможные и произошедшее события

 

В окружающей действительности достаточно часто встре­чаются ситуации, когда может произойти некоторое количество равновероятных событий. Так, при бросании равносторонней четырехгранной пирамиды существуют 4 равновероятных со­бытия, а при бросании шестигранного игрального кубика — 6 равновероятных событий.

Чем больше количество возможных событий, тем больше начальная неопределенность нашего знания и соответственно тем большее количество информации будет содержать сооб­щение о результатах опыта.

Единицы измерения количества информации. Для коли­чественного выражения любой величины необходимо опреде­лить единицу измерения. Так, для измерения длины в качест­ве единицы выбран метр, для измерения массы — килограмм и т. д. Аналогично, для определения количества информации необходимо ввести единицу измерения.

За единицу количества информации принимается та­кое количество информации, которое содержит сооб­щение, уменьшающее неопределенность знания в два раза. Такая единица названа бит.

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза (из двух воз­можных событий реализуется одно) и, следовательно, количе­ство полученной информации равно 1 биту.

Минимальной единицей измерения количества информа­ции является бит, а следующей по величине единицей — байт, причем

1 байт = 23 битов = 8 битов.

В информатике система образования кратных единиц изме­рения количества информации несколько отличается от приня­тых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в каче­стве множителей кратных единиц использует коэффициент 10n, где п = 3, 6, 9 и т. д., что соответствует десятичным приставкам «кило» (103), «мега» (106), «гига» (109) и т. д.

Компьютер оперирует числами не в десятичной, а в дво­ичной системе счисления, поэтому в кратных единицах изме­рения количества информации используется коэффициент 2n.

Так, кратные байту единицы измерения количества ин­формации вводятся следующим образом:

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт;

1 Гбайт = 210 Мбайт = 1024 Мбайт.

Количество возможных событий и количество информа­ции. Существует формула, которая связывает между собой ко­личество возможных событий N и количество информации I:

N = 2I

По этой формуле можно легко определить количество воз­можных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количе­ство возможных событий составляло

N = 24 = 16.

Наоборот, для определения количества информации, если известно количество событий, необходимо решить показате­льное уравнение относительно.

Для равновероятных событий расчетная формула количества информации имеет вид: N=2I или I =log2 N (формула оценки сообщений предложена в 1928 году Р. Хартли).

Задание «Определение количества информации». Опре­делить количество информации, полученной вторым игроком после первого хода первого игрока, в игре «крестики-ноли­ки» на поле размером 8x8 клеток.

Перед первым ходом существует 64 возможных события (64 различных вариантов расположения «крестика»), тогда уравнение (1)принимает вид:

64 = 21.

Так как 64 = 26, то

26 = 21.

Таким образом, 1 = 6 битов, т. е. количество информации, полученной вторым игроком после первого хода первого игро­ка, составляет 6 битов.

Повторение изученого

1. Приведите примеры уменьшения неопределенности знания после получения информации о произошедшем событии.

2. Как зависит количество информации от количества возможных со­бытий?

2. В рулетке общее количество лунок равно 128. Какое количество информации мы получаем в зрительном сообщения об остановке шарика в одной из лунок?

3. Заполнить пропуски числами и проверить пра­вильность вычислений с помощью программы перевода единиц измерения:

а) 5 Кбайт = __ байт = __ бит;

б) _ Кбайт = _ байт = 12 288 бит;

в) __ Кбайт = __ байт = 213 бит;

г) _Гбайт =1536 Мбайт = _ Кбайт;

д) 512 Кбайт = 2_ байт = 2_ бит.

 

Практическая работа

Задача 1

Группа школьников пришла в бассейн, в котором 4 дорожки для плавания. Тренер сообщил, что группа будет плавать на дорожке номер 3. Сколько информации получили школьники из этого сообщения? Решение: Поскольку выбор одной дорожки из 4-х равновероятен, то количество информации определяется по формуле: 2I=N, где I – количество информации, а N=4 – количество дорожек. Тогда 2I=4, отсюда I=2 бита.

Задача 2

Какое количество информации несет сообщение: «Встреча назначена на сентябрь». Решение: Поскольку появление в сообщении месяца сентябрь равновероятно из 12 месяцев, то количество информации определяется по формуле: 2I=N, где I – количество информации, N – количество месяцев. Отсюда: 2I=12, I=log212≈3.584962501 бит.

Задача 3

В барабане для розыгрыша лотереи находится 32 шара. Сколько информации содержит сообщение о первом выпавшем номере (например, выпал номер 15)? Решение: т.к. вытаскивание любого из шаров равновероятно, то количество информации вычисляется по формуле 2I=N, где I – количество информации, а N – количество шаров. Тогда 2I=32, отсюда I = 5 бит.

Задача 4

Какое количество информации несет сообщение о том, что встреча назначена на 15 число? Решение: Поскольку появление в сообщении определенного числа равновероятно из общего числа дней в месяце, то количество информации определяется по формуле: 2I=N, где I – количество информации, N=31 – количество дней в месяце. Отсюда: 2I=31, I=log231≈4.954196310 бит.

Задача 5

При угадывании целого числа в диапазоне от 1 до N было получено 9 бит информации. Чему равно N?

Решение: N = 29 = 512.

Задача 6

В школьной библиотеке 16 стеллажей с книгами. На каждом стеллаже 8 полок. Библиотекарь сообщил Пете, что нужная ему книга находится на пятом стеллаже на третьей сверху полке. Какое количество информации библиотекарь передал Пете?

Решение: существует 16*8 = 128 вариантов местонахождения книги. Из этого количеств вариантов необходимо выбрать один. Следовательно, N = 128, а I = 7, т.к. 128 = 27

Задача 7

Пользователь компьютера, хорошо владеющий навыками ввода информации с клавиатуры может вводить в минуту 100 знаков. Мощность алфавита, используемого в компьютере равна 256. Какое количество информации в байтах может ввести пользователь за 1 минуту.

Решение: так как мощность алфавита (количество символов в алфавите) равно 256, то длину кода одного символа легко посчитать, надо решить уравнение 2x=256, где х=8, так как 1 байт= 8 бит, то 8*100=800 бит информации, или 100 байт за минуту будет введено.

Задача 8

Сколько байт в 32 Гбайт? Решение. 32Гб = 25 Гб = 25*210 Мб = 25*210 *210 Кб =25*210 *210*210 байт = 235 байт

 



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2019-04-30 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: