ВУЗ:
Составители:
Рубрика:
36 
расширения занимаемой им полосы частот, увеличения длительности сигнала, улучшения соотно-
шения сигнал/помеха. 
1.6.2.Кодирование сигналов 
Процесс  преобразования  сообщения  в дискретный  сигнал  называют  кодированием инфор-
мации, а множество различных кодовых комбинаций, получаемых при данном правиле кодирова-
ния - кодом. Важной характеристикой кода является основание (или значность) кода 
m
, т. е. число 
возможных значений, которые могут принимать элементы (символы, буквы) кодовой комбинации. 
Пусть  требуется  передать сигнал,  уровень  которого  изменяется  от  0  до  10  В.  Если  погрешность 
представления данных составляет 10 мВ, то каждый отсчет сигнала можно рассматривать как одно 
из  1000  возможных  сообщений.  Для  передачи  этой  информации  можно  предложить  различные 
способы: 
а)  каждому сообщению  поставить  в  соответствие определенный  уровень  напряжения,  при 
этом основание кода 
m
= 1000, а длина кодовой комбинации (слова) принимает минимальное зна-
чение 
n = 1
; 
б)  можно  воспользоваться  двоичным  (бинарным)  сигналом  с
m = 2
,  но  тогда  потребуется 
комбинация  длины 
n = 10
  (
2
10
= 1024
,  так  что  некоторые  комбинации  здесь  не  использованы). 
Возможны и промежуточные варианты. Поэтому целесообразно поставить вопрос об определении 
оптимальной пары значений 
m
и 
n
. 
В качестве критерия оптимальности примем минимум произведения числа требуемых сим-
волов  (уровней) 
m
на  длину  кодовой  комбинации 
n
,  необходимой  для  представления  заданного 
числа сообщений 
N
. Тогда можно записать: 
а указанное условие минимума принимает вид: 
, 
или 
m = e
. Как видно из табл. 1.2, где приведены варианты решения задачи о передаче 1000 сооб-
щений, наиболее экономное представление множества сообщений соответствует 
m = 2; 3; 4
 (не-
которое  увеличение числа 
S
при
m = 3
 обусловлено тем, что 
3
7
= 2187
 дает значительную  избы-
точность). 
Таблица 1.2. 
m
1000 
32 
10 
6 
4 
3 
2 
n
1 
2 
3 
4 
5 
7 
10 
S = nm
1000 
64 
30 
24 
20 
21 
20 
Таким образом, код с основанием 
m = 2
 оказывается не только удобным вследствие легко-
сти формирования бинарных сигналов, но и одним из наиболее экономных. 
Ранее  не  учитывалось,  что  сообщения  могут  иметь  разную  вероятность.  Допустим,  что 
необходимо передавать четыре сообщения, обозначим их А, Б,  В, Г.  Если их закодировать двоич-
ным кодом, то получим четыре кодовых комбинации: 00, 01, 10 и 11. При равной вероятности каж-
дого сообщения (Р
А
 = Р
Б
 = Р
в
 = Р
г
 = 0.25) используется такой способ. Если же одно из сообщений, 
например А, передается чаще других, его следует сделать более коротким, тогда как более редкие 
сообщения могут быть длиннее. Разработанные К. Шенноном и X. Фано оптимальные коды стро-
ятся так, как показано в табл. 1.2. 
Сообщения ранжируют, т. е. располагают в виде убывающей последовательности вероятно-
стей, и разбивают на две группы таким образом, чтобы сумма вероятностей в каждой была при-
мерно одинакова. Одной из групп приписывается символ 1, другой - 0. Далее каждая из групп раз-
бивается по такому же правилу и вновь образовавшимся подгруппам также приписываются симво-
36
расширения занимаемой им полосы частот, увеличения длительности сигнала, улучшения соотно-
шения сигнал/помеха.
                                1.6.2.Кодирование сигналов
       Процесс преобразования сообщения в дискретный сигнал называют кодированием инфор-
мации, а множество различных кодовых комбинаций, получаемых при данном правиле кодирова-
ния - кодом. Важной характеристикой кода является основание (или значность) кода m, т. е. число
возможных значений, которые могут принимать элементы (символы, буквы) кодовой комбинации.
Пусть требуется передать сигнал, уровень которого изменяется от 0 до 10 В. Если погрешность
представления данных составляет 10 мВ, то каждый отсчет сигнала можно рассматривать как одно
из 1000 возможных сообщений. Для передачи этой информации можно предложить различные
способы:
       а) каждому сообщению поставить в соответствие определенный уровень напряжения, при
этом основание кода m= 1000, а длина кодовой комбинации (слова) принимает минимальное зна-
чение n = 1;
       б) можно воспользоваться двоичным (бинарным) сигналом с m = 2, но тогда потребуется
комбинация длины n = 10 (210 = 1024, так что некоторые комбинации здесь не использованы).
Возможны и промежуточные варианты. Поэтому целесообразно поставить вопрос об определении
оптимальной пары значений mи n .
       В качестве критерия оптимальности примем минимум произведения числа требуемых сим-
волов (уровней) mна длину кодовой комбинации n , необходимой для представления заданного
числа сообщений N . Тогда можно записать:
а указанное условие минимума принимает вид:
                                                              ,
или m = e. Как видно из табл. 1.2, где приведены варианты решения задачи о передаче 1000 сооб-
щений, наиболее экономное представление множества сообщений соответствует m = 2; 3; 4 (не-
которое увеличение числа S приm = 3 обусловлено тем, что 37 = 2187 дает значительную избы-
точность).
Таблица 1.2.
       m          1000          32         10          6           4          3          2
       n            1            2          3          4           5          7         10
     S = nm       1000          64         30          24         20         21         20
       Таким образом, код с основанием m = 2 оказывается не только удобным вследствие легко-
сти формирования бинарных сигналов, но и одним из наиболее экономных.
       Ранее не учитывалось, что сообщения могут иметь разную вероятность. Допустим, что
необходимо передавать четыре сообщения, обозначим их А, Б, В, Г. Если их закодировать двоич-
ным кодом, то получим четыре кодовых комбинации: 00, 01, 10 и 11. При равной вероятности каж-
дого сообщения (РА = РБ = Рв = Рг = 0.25) используется такой способ. Если же одно из сообщений,
например А, передается чаще других, его следует сделать более коротким, тогда как более редкие
сообщения могут быть длиннее. Разработанные К. Шенноном и X. Фано оптимальные коды стро-
ятся так, как показано в табл. 1.2.
       Сообщения ранжируют, т. е. располагают в виде убывающей последовательности вероятно-
стей, и разбивают на две группы таким образом, чтобы сумма вероятностей в каждой была при-
мерно одинакова. Одной из групп приписывается символ 1, другой - 0. Далее каждая из групп раз-
бивается по такому же правилу и вновь образовавшимся подгруппам также приписываются симво-
Страницы
- « первая
 - ‹ предыдущая
 - …
 - 34
 - 35
 - 36
 - 37
 - 38
 - …
 - следующая ›
 - последняя »
 
