Электронные промышленные устройства. Кузнецов Б.Ф. - 36 стр.

UptoLike

Составители: 

36
расширения занимаемой им полосы частот, увеличения длительности сигнала, улучшения соотно-
шения сигнал/помеха.
1.6.2.Кодирование сигналов
Процесс преобразования сообщения в дискретный сигнал называют кодированием инфор-
мации, а множество различных кодовых комбинаций, получаемых при данном правиле кодирова-
ния - кодом. Важной характеристикой кода является основание (или значность) кода
m
, т. е. число
возможных значений, которые могут принимать элементы (символы, буквы) кодовой комбинации.
Пусть требуется передать сигнал, уровень которого изменяется от 0 до 10 В. Если погрешность
представления данных составляет 10 мВ, то каждый отсчет сигнала можно рассматривать как одно
из 1000 возможных сообщений. Для передачи этой информации можно предложить различные
способы:
а) каждому сообщению поставить в соответствие определенный уровень напряжения, при
этом основание кода
m
= 1000, а длина кодовой комбинации (слова) принимает минимальное зна-
чение
n = 1
;
б) можно воспользоваться двоичным инарным) сигналом с
m = 2
, но тогда потребуется
комбинация длины
n = 10
(
2
10
= 1024
, так что некоторые комбинации здесь не использованы).
Возможны и промежуточные варианты. Поэтому целесообразно поставить вопрос об определении
оптимальной пары значений
m
и
n
.
В качестве критерия оптимальности примем минимум произведения числа требуемых сим-
волов (уровней)
m
на длину кодовой комбинации
n
, необходимой для представления заданного
числа сообщений
N
. Тогда можно записать:
а указанное условие минимума принимает вид:
,
или
. Как видно из табл. 1.2, где приведены варианты решения задачи о передаче 1000 сооб-
щений, наиболее экономное представление множества сообщений соответствует
m = 2; 3; 4
е-
которое увеличение числа
S
при
m = 3
обусловлено тем, что
3
7
= 2187
дает значительную избы-
точность).
Таблица 1.2.
m
1000
32
10
6
4
3
2
n
1
2
3
4
5
7
10
S = nm
1000
64
30
24
20
21
20
Таким образом, код с основанием
m = 2
оказывается не только удобным вследствие легко-
сти формирования бинарных сигналов, но и одним из наиболее экономных.
Ранее не учитывалось, что сообщения могут иметь разную вероятность. Допустим, что
необходимо передавать четыре сообщения, обозначим их А, Б, В, Г. Если их закодировать двоич-
ным кодом, то получим четыре кодовых комбинации: 00, 01, 10 и 11. При равной вероятности каж-
дого сообщения
А
= Р
Б
= Р
в
= Р
г
= 0.25) используется такой способ. Если же одно из сообщений,
например А, передается чаще других, его следует сделать более коротким, тогда как более редкие
сообщения могут быть длиннее. Разработанные К. Шенноном и X. Фано оптимальные коды стро-
ятся так, как показано в табл. 1.2.
Сообщения ранжируют, т. е. располагают в виде убывающей последовательности вероятно-
стей, и разбивают на две группы таким образом, чтобы сумма вероятностей в каждой была при-
мерно одинакова. Одной из групп приписывается символ 1, другой - 0. Далее каждая из групп раз-
бивается по такому же правилу и вновь образовавшимся подгруппам также приписываются симво-
36

расширения занимаемой им полосы частот, увеличения длительности сигнала, улучшения соотно-
шения сигнал/помеха.

                                1.6.2.Кодирование сигналов

       Процесс преобразования сообщения в дискретный сигнал называют кодированием инфор-
мации, а множество различных кодовых комбинаций, получаемых при данном правиле кодирова-
ния - кодом. Важной характеристикой кода является основание (или значность) кода m, т. е. число
возможных значений, которые могут принимать элементы (символы, буквы) кодовой комбинации.
Пусть требуется передать сигнал, уровень которого изменяется от 0 до 10 В. Если погрешность
представления данных составляет 10 мВ, то каждый отсчет сигнала можно рассматривать как одно
из 1000 возможных сообщений. Для передачи этой информации можно предложить различные
способы:
       а) каждому сообщению поставить в соответствие определенный уровень напряжения, при
этом основание кода m= 1000, а длина кодовой комбинации (слова) принимает минимальное зна-
чение n = 1;
       б) можно воспользоваться двоичным (бинарным) сигналом с m = 2, но тогда потребуется
комбинация длины n = 10 (210 = 1024, так что некоторые комбинации здесь не использованы).
Возможны и промежуточные варианты. Поэтому целесообразно поставить вопрос об определении
оптимальной пары значений mи n .
       В качестве критерия оптимальности примем минимум произведения числа требуемых сим-
волов (уровней) mна длину кодовой комбинации n , необходимой для представления заданного
числа сообщений N . Тогда можно записать:



а указанное условие минимума принимает вид:

                                                              ,

или m = e. Как видно из табл. 1.2, где приведены варианты решения задачи о передаче 1000 сооб-
щений, наиболее экономное представление множества сообщений соответствует m = 2; 3; 4 (не-
которое увеличение числа S приm = 3 обусловлено тем, что 37 = 2187 дает значительную избы-
точность).
Таблица 1.2.
       m          1000          32         10          6           4          3          2
       n            1            2          3          4           5          7         10
     S = nm       1000          64         30          24         20         21         20

       Таким образом, код с основанием m = 2 оказывается не только удобным вследствие легко-
сти формирования бинарных сигналов, но и одним из наиболее экономных.
       Ранее не учитывалось, что сообщения могут иметь разную вероятность. Допустим, что
необходимо передавать четыре сообщения, обозначим их А, Б, В, Г. Если их закодировать двоич-
ным кодом, то получим четыре кодовых комбинации: 00, 01, 10 и 11. При равной вероятности каж-
дого сообщения (РА = РБ = Рв = Рг = 0.25) используется такой способ. Если же одно из сообщений,
например А, передается чаще других, его следует сделать более коротким, тогда как более редкие
сообщения могут быть длиннее. Разработанные К. Шенноном и X. Фано оптимальные коды стро-
ятся так, как показано в табл. 1.2.
       Сообщения ранжируют, т. е. располагают в виде убывающей последовательности вероятно-
стей, и разбивают на две группы таким образом, чтобы сумма вероятностей в каждой была при-
мерно одинакова. Одной из групп приписывается символ 1, другой - 0. Далее каждая из групп раз-
бивается по такому же правилу и вновь образовавшимся подгруппам также приписываются симво-