Теория передачи сигналов на железнодорожном транспорте. Женко Л.А. - 74 стр.

UptoLike

Составители: 

74
символов. Получим четыре сообщения, которые вместе с их вероятностями
представим таблицей.
Таблица 3.2
00 0,81 0 0
01 0,09 1 11
10 0,09 0 100
11 0,01
1
0
1 101
Найдем энтропию источника, пользуясь той же таблицей приложения.
Н=0,246+0,312+0,312+0,066=0,938 бит/сообщение. Средняя длина кодовой
комбинации
n = 0,81+0,09 .2+ 0,09 .3+ 0,01 .3 = 1,29 сим./сообщ. Удельная
энтропия источника равна энтропии источника сообщений, деленной на
среднюю длину комбинаций: Н/
n =0,727 бит/сим. Эта энтропия сущест-
венно выше, чем была получена ранее (0,469), соответственно стала выше
и скорость передачи информации. При кодировании группами из трех со-
общений удельная энтропия будет еще больше, а при дальнейшем
укруп-
нении
кодируемых последовательностей скорость передачи будет как
угодно
близка к пропускной способности канала, т.е. к 1/ .
τ
Естественно,
повышение скорости требует соответствующих затрат.
Кодирующее устройство в соответствии с таблицей 3.2 работает сле-
дующим образом. При поступлении на его вход комбинации 00 оно выдает
в линию связи 0, при комбинации 01 – 11 и т.д. При кодировании группами
из трех символов кодирующее устройство становится сложнее, оно должно
формировать восемь групп выходных символов. При
изменении входной
статистики схемы кодирования продолжают кодирование, но с меньшей
эффективностью.
3.5. Пропускная способность дискретных каналов с помехами
В железнодорожной автоматике часто в приемник поступает инфор-
мация сразу от нескольких источников. В этом случае мы имеем дело с
объединением источников, и энтропия приемника (без учета потерь за счет
помех) определяется степенью зависимости одного источника от другого.
При анализе объединения мы можем рассматривать три случая:
- источники полностью независимы. Их
совместная энтропия равна
сумме энтропий каждого источника;
- источники полностью зависимы. Совместная энтропия равна энтро-
пии одного источника;
- источники статистически зависимы. Этот случай самый распростра-
ненный, т.к. сложные системы всегда охвачены вероятностными связями .
Рассмотрим объединение источника с приемником информации. В ка-
нале без помех неопределенности при передаче нет, (что передано
, то и
будет принято) и совместная энтропия объединения
),( yxH равна либо эн-
тропии передатчика
)(xH
, либо энтропии приемника
)( yH
,