Двоичная система счисления является основной системой представления информации в памяти компьютера.
Восьмеричная система счисления: 0, 1, 2, 3, 4, 5, 6, 7.
Шестнадцатеричная система счисления: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, А, В, С, D, E, F.
Официальное рождение двоичной арифметики связано с именем Г. В. Лейбница, опубликовавшего в 1703 г. статью, в которой он рассмотрел правила выполнения арифметических действий над двоичными числами.
Двоичная система проста, так как для представления информации в ней используются всего два состояния, или две цифры. Такое представление информации принято называть двоичным кодированием.
Представление информации в двоичной системе использовалось человеком с давних времен. Так, жители островов Полинезии передавали необходимую информацию при помощи барабанов: чередование звонких и глухих ударов.
Компьютеры используют двоичную систему потому, что она имеет ряд преимуществ перед другими системами: для ее реализации нужны технические устройства с двумя устойчивыми состояниями (есть ток – нет тока, намагничен – не намагничен и т.п.), а не, например, с десятью, как в десятичной. Представление информации посредством только двух состояний надежно и помехоустойчиво: двоичная арифметика намного проще десятичной. Недостаток двоичной системы – быстрый рост числа разрядов, необходимых для записи чисел.
Двоичная система, удобная для компьютеров, для человека неудобна из-за ее громоздкости и непривычной записи. Перевод чисел из десятичной системы в двоичную и наоборот выполняет машина. Программистам удобнее работать с более компактной записью. Такими системами являются восьмеричная и шестнадцатеричная.
Кодирование. Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видеоинформацию. Все эти виды информации в компьютере представлены в двоичном коде, т.е. используется алфавит мощностью 2 (всего два символа – 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц – машинным языком.
Кодирование – процесс отображения дискретных сообщений сигналами в виде определенных сочетаний символов, т.е. процесс шифрования.
Шифрование – процесс перевода текстов, цифровых и других данных в зашифрованную форму.
Дешифрование – процесс преобразования закодированных текстов, цифровых и других данных в их первоначальную или другую удобную для чтения форму.
Если каждому символу алфавита сопоставить определенное целое число (например, порядковый номер), то с помощью двоичного кода можно кодировать текстовую информацию. Восьми двоичных разрядов достаточно для кодирования 256 различных символов. Этого хватит, чтобы выразить различными комбинациями восьми битов все символы английского и русского языков, как строчные, так и прописные, а также знаки препинания, символы основных арифметических действий и пр.
Кодирование информации двоичным кодом
Информация передается в виде сигналов, но перед сохранением сигналы кодируются (например, музыка записывается нотами). В компьютере разнородная информация преобразуется в цифровой вид (например, фотография сканируется), потому что цифровую информацию очень удобно кодировать, хранить и обрабатывать. Цифровая информация в компьютере кодируется двоичным кодом. Бит – это наименьшая единица двоичного кода.
Бит – единица представления информации. Бит (Binary Digit – двоичная цифра) – это наименьшая единица представления информации.
Один бит может принимать только два значения:
1 (Да) или 0 (Нет).
Двумя битами можно закодировать четыре значения:
00, 01, 10, 11.
Тремя битами можно закодировать восемь значений:
000, 001, 010, 011, 100, 101, 110, 111.
Пример преобразования десятичного числа 5 в двоичное число:
– 5: 2 = 2 + 1 (значение младшего бита, записывается справа);
– 2: 2 = 1 + 0 (значение промежуточного бита, записывается в середине);
– 1 = 1 (значение старшего бита, записывается слева).
Ответ: 101.
Байт – единица обработки информации. Информация в компьютере обрабатывается байтами. Байт – это группа из восьми битов. Один байт может принимать 256 значений (от 0 до 255).
Примеры кодирования целых чисел одним байтом:
– 010 = 000000002;
– 110 = 000000012;
– 210 = 000000102;
– 310 = 000000112;
– 410 = 000001002;
– 510 = 000001012.
Например, одним байтом кодируется один символ клавиатуры. Таблица ASCII – это таблица кодов, в которой записано, каким кодом должен кодироваться каждый символ клавиатуры.