Составители:
6
1.3. Кодирование информации
1.3.1. Понятие о двоичном коде
Для автоматизации работы с данными, относящимися к различным типам,
очень важно унифицировать их форму представления — для этого обычно
используется прием кодирования, то есть выражение данных одного типа
через данные другого типа. Естественные человеческие языки — это не что
иное, как системы кодирования
понятий для выражения мыслей посредством
речи. К языкам близко примыкают азбуки (системы кодирования
компонентов языка с помощью графических символов).
Своя система существует и в вычислительной технике — она называется
двоичным кодированием и основана на представлении данных
последовательностью всего двух знаков: 0 и 1. Эти знаки называются
двоичными цифрами, по-английски — binary digit или сокращенно
bit (бит).
Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное
или белое, истина или ложь и т. п.). Если количество битов увеличить до
двух, то уже можно выразить четыре различных понятия:
00 01 10 11
Тремя битами можно закодировать восемь различных значений:
000 001 010 01l 100 101 110 111
Увеличивая на единицу количество разрядов
в системе двоичного
кодирования, мы увеличиваем в два раза количество значений, которое
может быть выражено в данной системе, то есть общая формула имеет вид:
N= 2
m
,
где N — количество независимых кодируемых значений;
т — разрядность двоичного кодирования, принятая в данной системе.
1.3.2. Кодирование целых и действительных чисел
Целые числа кодируются двоичным кодом достаточно просто —
достаточно взять целое число и делить его пополам до тех пор, пока
частное не будет равно единице. Совокупность остатков от каждого
деления, записанная справа налево вместе с последним частным, и
образует двоичный аналог десятичного числа.
Страницы
- « первая
- ‹ предыдущая
- …
- 4
- 5
- 6
- 7
- 8
- …
- следующая ›
- последняя »