Системы счисления, используемые в компьютере




 

Двоичная система счисления является основной системой представления информации в памяти компьютера.

Восьмеричная система счисления: 0, 1, 2, 3, 4, 5, 6, 7.

Шестнадцатеричная система счисления: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, А, В, С, D, E, F.

Официальное рождение двоичной арифметики связано с именем Г. В. Лейбница, опубликовавшего в 1703 г. статью, в которой он рассмотрел правила выполнения арифметических действий над двоичными числами.

Двоичная система проста, так как для представления информации в ней используются всего два состояния, или две цифры. Такое представление информации принято называть двоичным кодированием.

Представление информации в двоичной системе использовалось человеком с давних времен. Так, жители островов Полинезии передавали необходимую информацию при помощи барабанов: чередование звонких и глухих ударов.

Компьютеры используют двоичную систему потому, что она имеет ряд преимуществ перед другими системами: для ее реализации нужны технические устройства с двумя устойчивыми состояниями (есть ток – нет тока, намагничен – не намагничен и т.п.), а не, например, с десятью, как в десятичной. Представление информации посредством только двух состояний надежно и помехоустойчиво: двоичная арифметика намного проще десятичной. Недостаток двоичной системы – быстрый рост числа разрядов, необходимых для записи чисел.

Двоичная система, удобная для компьютеров, для человека неудобна из-за ее громоздкости и непривычной записи. Перевод чисел из десятичной системы в двоичную и наоборот выполняет машина. Программистам удобнее работать с более компактной записью. Такими системами являются восьмеричная и шестнадцатеричная.

Кодирование. Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видеоинформацию. Все эти виды информации в компьютере представлены в двоичном коде, т.е. используется алфавит мощностью 2 (всего два символа – 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц – машинным языком.

Кодирование – процесс отображения дискретных сообщений сигналами в виде определенных сочетаний символов, т.е. процесс шифрования.

Шифрование – процесс перевода текстов, цифровых и других данных в зашифрованную форму.

Дешифрование – процесс преобразования закодированных текстов, цифровых и других данных в их первоначальную или другую удобную для чтения форму.

Если каждому символу алфавита сопоставить определенное целое число (например, порядковый номер), то с помощью двоичного кода можно кодировать текстовую информацию. Восьми двоичных разрядов достаточно для кодирования 256 различных символов. Этого хватит, чтобы выразить различными комбинациями восьми битов все символы английского и русского языков, как строчные, так и прописные, а также знаки препинания, символы основных арифметических действий и пр.

 

Кодирование информации двоичным кодом

 

Информация передается в виде сигналов, но перед сохранением сигналы кодируются (например, музыка записывается нотами). В компьютере разнородная информация преобразуется в цифровой вид (например, фотография сканируется), потому что цифровую информацию очень удобно кодировать, хранить и обрабатывать. Цифровая информация в компьютере кодируется двоичным кодом. Бит – это наименьшая единица двоичного кода.

Битединица представления информации. Бит (Binary Digit – двоичная цифра) – это наименьшая единица представления информации.

Один бит может принимать только два значения:

1 (Да) или 0 (Нет).

Двумя битами можно закодировать четыре значения:

00, 01, 10, 11.

Тремя битами можно закодировать восемь значений:

000, 001, 010, 011, 100, 101, 110, 111.

Пример преобразования десятичного числа 5 в двоичное число:

5: 2 = 2 + 1 (значение младшего бита, записывается справа);

– 2: 2 = 1 + 0 (значение промежуточного бита, записывается в середине);

– 1 = 1 (значение старшего бита, записывается слева).

Ответ: 101.

Байт – единица обработки информации. Информация в компьютере обрабатывается байтами. Байт – это группа из восьми битов. Один байт может принимать 256 значений (от 0 до 255).

Примеры кодирования целых чисел одним байтом:

– 010 = 000000002;

– 110 = 000000012;

– 210 = 000000102;

– 310 = 000000112;

– 410 = 000001002;

– 510 = 000001012.

 

Например, одним байтом кодируется один символ клавиатуры. Таблица ASCII – это таблица кодов, в которой записано, каким кодом должен кодироваться каждый символ клавиатуры.

 



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2017-04-03 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: