Теория передачи сигналов. Женко Л.А. - 22 стр.

UptoLike

Составители: 

22
Лабораторная работа 13
ИССЛЕДОВАНИЕ ПРОПУСКНОЙ СПОСОБНОСТИ ДИСКРЕТНЫХ
КАНАЛОВ С ПОМЕХАМИ И КОРРЕКТИРУЮЩЕЕ КОДИРОВАНИЕ.
Цель работы:
теоретическое обоснование идей корректирующего
кодирования, методику построения проверочной матрицы, получение уравнений
кодирования и декодирования и соответствующих этим уравнениям схем.
Краткие теоретические сведения
В железнодорожной автоматике часто в приемник поступает информация сразу
от нескольких источников. В этом случае мы имеем дело с объединением
источников, и энтропия приемника (без учета потерь за счет помех) определяется
степенью зависимости одного источника от другого.
При анализе объединения мы можем рассматривать три случая:
- источники полностью независимы. Их совместная
энтропия равна сумме
энтропии каждого источника;
- источники полностью зависимы. Совместная энтропия равна энтропии одного
источника;
- источники статистически зависимы. Этот случай самый распространенный,
т.к. сложные системы всегда охвачены вероятностными связями .
Рассмотрим объединение источника с приемником информации. В канале без
помех неопределенности при передаче нет, (что передано, то и будет
принято) и
совместная энтропия объединения
),( yxH равна либо энтропии передатчика )(xH ,
либо энтропии приемника
)( yH ,
).()(),( yHxHyxH
=
=
В случае помех возникает неопределенность, т.к. последовательность символов,
создаваемая источником, может претерпевать искажения в тракте передачи.
Условные энтропии источника и приемника обусловлены действием помех.
Величина
)|( yxH характеризует скорость "утечки" информации, а )|( xyH скорость
получения ненужной, вредной информации. В результате энтропия источника
уменьшается, и часть информации до приемника не доходит.
)|( xyH - условная энтропия
y
приемника относительно передатчика
x
или мера
количества информации в приемнике, когда известно, что передается (априорная
энтропия),
)|( yxH - условная энтропия передатчика
x
относительно приемника
y
или мера количества информации в передатчике, когда известно, что принимается
(апостериорная энтропия). И то и другое действие этих энтропий негативно, они
уменьшают объем передаваемой информации, их называют ненадежностью
передачи или
шумом. Совместная энтропия: ).|()()|()(),( xyHyHyxHxHyxH =
=
Будем считать, что
)|()|( yxHxyH = - ненадежность связи.
Рассмотрим, как изменяется скорость передачи или пропускная способность