Новый материал..
3. Практическая работа.
4. Домашнее задание. Подведение итогов.
Ход урока
Организационный момент:
-Представление, отметка отсутствующих;
-Повторение прошлой темы, ответы на вопросы
Вопросы:
1) Приведите примеры перехода от хаоса к порядку(увеличения информации) в окружающем мире.
2) Какова физическая природа знака при представление информации в генетическом коде?
Объяснение нового материала:
Количество информации как мера уменьшения неопределенности знания
Уменьшение неопределенности знания. Получение информации можно связать с уменьшением неопределенности знания. Это позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количества информации более подробно на конкретных примерах.
Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка».
О Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка — 3 раза, если бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, если бросим монету 1000 раз, то «орел» выпадет 520 раз, а «решка» — 480 и т. д. В итоге при очень большой серии опытов количества выпадений «орла» и «решки» практически сравняются.
Перед броском существует неопределенность нашего знания (возможны два события), и как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности нашего знания в два раза, так как из двух возможных равновероятных событий реализовалось одно (рис.1).
. Возможные и произошедшее события
В окружающей действительности достаточно часто встречаются ситуации, когда может произойти некоторое количество равновероятных событий. Так, при бросании равносторонней четырехгранной пирамиды существуют 4 равновероятных события, а при бросании шестигранного игрального кубика — 6 равновероятных событий.
Чем больше количество возможных событий, тем больше начальная неопределенность нашего знания и соответственно тем большее количество информации будет содержать сообщение о результатах опыта.
Единицы измерения количества информации. Для количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы — килограмм и т. д. Аналогично, для определения количества информации необходимо ввести единицу измерения.
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Такая единица названа бит.
Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза (из двух возможных событий реализуется одно) и, следовательно, количество полученной информации равно 1 биту.
Минимальной единицей измерения количества информации является бит, а следующей по величине единицей — байт, причем
1 байт = 23 битов = 8 битов.
В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц использует коэффициент 10n, где п = 3, 6, 9 и т. д., что соответствует десятичным приставкам «кило» (103), «мега» (106), «гига» (109) и т. д.
Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.
Так, кратные байту единицы измерения количества информации вводятся следующим образом:
1 Кбайт = 210 байт = 1024 байт;
1 Мбайт = 210 Кбайт = 1024 Кбайт;
1 Гбайт = 210 Мбайт = 1024 Мбайт.
Количество возможных событий и количество информации. Существует формула, которая связывает между собой количество возможных событий N и количество информации I:
N = 2I
По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло
N = 24 = 16.
Наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно.
Для равновероятных событий расчетная формула количества информации имеет вид: N=2I или I =log2 N (формула оценки сообщений предложена в 1928 году Р. Хартли).
Задание «Определение количества информации». Определить количество информации, полученной вторым игроком после первого хода первого игрока, в игре «крестики-нолики» на поле размером 8x8 клеток.
Перед первым ходом существует 64 возможных события (64 различных вариантов расположения «крестика»), тогда уравнение (1)принимает вид:
64 = 21.
Так как 64 = 26, то
26 = 21.
Таким образом, 1 = 6 битов, т. е. количество информации, полученной вторым игроком после первого хода первого игрока, составляет 6 битов.
Повторение изученого
1. Приведите примеры уменьшения неопределенности знания после получения информации о произошедшем событии.
2. Как зависит количество информации от количества возможных событий?
2. В рулетке общее количество лунок равно 128. Какое количество информации мы получаем в зрительном сообщения об остановке шарика в одной из лунок?
3. Заполнить пропуски числами и проверить правильность вычислений с помощью программы перевода единиц измерения:
а) 5 Кбайт = __ байт = __ бит;
б) _ Кбайт = _ байт = 12 288 бит;
в) __ Кбайт = __ байт = 213 бит;
г) _Гбайт =1536 Мбайт = _ Кбайт;
д) 512 Кбайт = 2_ байт = 2_ бит.
Практическая работа
Задача 1
Группа школьников пришла в бассейн, в котором 4 дорожки для плавания. Тренер сообщил, что группа будет плавать на дорожке номер 3. Сколько информации получили школьники из этого сообщения? Решение: Поскольку выбор одной дорожки из 4-х равновероятен, то количество информации определяется по формуле: 2I=N, где I – количество информации, а N=4 – количество дорожек. Тогда 2I=4, отсюда I=2 бита.
Задача 2
Какое количество информации несет сообщение: «Встреча назначена на сентябрь». Решение: Поскольку появление в сообщении месяца сентябрь равновероятно из 12 месяцев, то количество информации определяется по формуле: 2I=N, где I – количество информации, N – количество месяцев. Отсюда: 2I=12, I=log212≈3.584962501 бит.
Задача 3
В барабане для розыгрыша лотереи находится 32 шара. Сколько информации содержит сообщение о первом выпавшем номере (например, выпал номер 15)? Решение: т.к. вытаскивание любого из шаров равновероятно, то количество информации вычисляется по формуле 2I=N, где I – количество информации, а N – количество шаров. Тогда 2I=32, отсюда I = 5 бит.
Задача 4
Какое количество информации несет сообщение о том, что встреча назначена на 15 число? Решение: Поскольку появление в сообщении определенного числа равновероятно из общего числа дней в месяце, то количество информации определяется по формуле: 2I=N, где I – количество информации, N=31 – количество дней в месяце. Отсюда: 2I=31, I=log231≈4.954196310 бит.
Задача 5
При угадывании целого числа в диапазоне от 1 до N было получено 9 бит информации. Чему равно N?
Решение: N = 29 = 512.
Задача 6
В школьной библиотеке 16 стеллажей с книгами. На каждом стеллаже 8 полок. Библиотекарь сообщил Пете, что нужная ему книга находится на пятом стеллаже на третьей сверху полке. Какое количество информации библиотекарь передал Пете?
Решение: существует 16*8 = 128 вариантов местонахождения книги. Из этого количеств вариантов необходимо выбрать один. Следовательно, N = 128, а I = 7, т.к. 128 = 27
Задача 7
Пользователь компьютера, хорошо владеющий навыками ввода информации с клавиатуры может вводить в минуту 100 знаков. Мощность алфавита, используемого в компьютере равна 256. Какое количество информации в байтах может ввести пользователь за 1 минуту.
Решение: так как мощность алфавита (количество символов в алфавите) равно 256, то длину кода одного символа легко посчитать, надо решить уравнение 2x=256, где х=8, так как 1 байт= 8 бит, то 8*100=800 бит информации, или 100 байт за минуту будет введено.
Задача 8
Сколько байт в 32 Гбайт? Решение. 32Гб = 25 Гб = 25*210 Мб = 25*210 *210 Кб =25*210 *210*210 байт = 235 байт