Информатика. Учебное пособие - 7 стр.

UptoLike

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу дво-
ичных знаков в нем.
В вычислительной технике при определении количества информации чаще используется объемный
подход, суть которого в следующем.
Как уже было отмечено, в двоичной системе счисления знаки 0 и 1 называют битами (от английско-
го выражения Binary digiTs – двоичные цифры). Создатели компьютеров отдают предпочтение именно
двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два
противоположных физических состояния (некоторый физический элемент, имеющий два различных со-
стояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет
электрический ток; конденсатор, заряженный или незаряженный и т.п.). В компьютере бит явля-
ется наименьшей возможной единицей информации. Объем информации, записанной двоичными зна-
ками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количест-
ву требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число
битов (в отличие от вероятностного подхода).
Итак, если у нас есть один бит, то с его помощью мы можем закодировать один из двух символов
либо 0, либо 1.
Если же есть 2 бита, то из них можно составить один из четырех вариантов кодов: 00, 01, 10, 11 .
Если есть 3 битаодин из восьми: 000, 001, 010, 100, 110, 101, 011, 111.
Закономерность очевидна: 1 бит – 2 варианта, 2 бита – 4 варианта, 3 бита – 8 вариантов, 4 бита
– 16 вариантов. Продолжая дальше, получим: N бит – 2
N
(т.е. 2 в степени N вариантов).
В обычной жизни нам достаточно 150 – 160 стандартных символов (больших и маленьких русских
и латинских букв, цифр, знаков препинания, арифметических действий и т.п.). Если каждому из них бу-
дет соответствовать свой код из нулей и единиц, то 7 бит для этого будет недостаточно (7 бит позволят
закодировать только 128 различных символов), поэтому используют 8 бит.
Для кодирования одного привычного человеку символа в ЭВМ используется 8 бит, что позволяет
закодировать 256 различных символов.
Стандартный набор из 256 символов называется ASCII (означает "Американский Стандартный Код
для Обмена Информацией" – англ. American Standart Code for Information Interchange). Он включает в
себя большие и маленькие русские и латинские буквы, цифры, знаки препинания и арифметические
действия и т.п.
Каждому символу ASCII соответствует 8-битовый двоичный код.
Для удобства использования введены и более крупные, чем бит, единицы количества информации.
Так, двоичное слово из восьми знаков содержит один байт информации, 1024 байта образуют килобайт
(кбайт), 1024 килобайтамегабайт (Мбайт), а 1024 мегабайтагигабайт (Гбайт). В информатике
смысл приставок кило-, мега- и других в общепринятом смысле выполняется не точно, а приближенно,
поскольку соответствует увеличению не в 1000, а в 1024 раза.
Скорость передачи информации по линиям связи измеряется в бодах (1 бод = 1 бит/с). В частности,
если говорят, что пропускная способность какого-то устройства составляет 28 Килобод, то это значит,
что с его помощью можно передать по линии связи около 28 тыс. нулей и единиц за одну секунду.
Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко
не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибер-
нетическом смысле, но заведомо допускает его в объемном. Если некоторое сообщение допускает изме-
римость количества информации в обоих смыслах, то они не обязательно совпадают, при этом киберне-
тическое количество информации не может быть больше объемного.
1.4 ИНФОРМАТИКА КАК НАУКА
Информатиканаучное направление, занимающееся изучением законов, методов и способов на-
капливания, обработки и передачи информации с помощью ЭВМ и других технических средств, группа
дисциплин, занимающихся различными аспектами применения и разработки ЭВМ: прикладная матема-