ВУЗ:
Составители:
Рубрика:
12
10 точками, т.к. при К(
Δ
t
⋅
10) будут задействованы все значения процесса
∑
−⋅−=⋅Δ=
+
10
1
10
)()(
10
1
)10()( xxxxtKK
ii
τ
.
Из-за малой длины реализации нет уверенности в стационарности процесса, поэтому
x
и D могут быть разными в начале и в конце реализации. Для R(
τ
) возможно получение
результатов по формуле
)0(
)(
)(
K
K
ctR
τ
=⋅Δ
, с = 0,1,3,…10,
где R(
τ
) =
)( ctR ⋅Δ
центрированное и нормированное значение АКФ;
К(
τ
) - ненормированная автокорреляционная функция центрированного процесса.
4. ЭНТРОПИЯ ДИСКРЕТНОГО ИСТОЧНИКА. СТАТИСТИЧЕСКОЕ КОДИРОВАНИЕ
Задать последовательность двоичных символов в соответствии с вероятностями
табл.4.1. Определить энтропию источника, пропускную способность канала, считая, что
τ
0
- длительность символа получена в пункте 2. Закодировать последовательность
группами из двух элементов статистическим кодом, определить скорость передачи
информации R
и
и пропускную способность канала С
К
. Закодировать последовательность
группами из трех элементов и также определить скорость передачи информации и
пропускную способность канала. Показать, что при кодировании группами из большего
числа элементов скорость передачи информации R
и
стремится к пропускной способности
канала. Сравнить коэффициенты использования канала при трех способах кодирования.
Пропускная способность канала
T
H
C
m
K
= ,здесь Н
m
-максимальная энтропия
источника,
Т - средняя продолжительность кодовой комбинации. Для бинарного
(двоичного) источника
Н
m
=1
бит
/символ, Т =τ
0
, С
К
=1/τ
0
бит
/с.
Скорость передачи информации определяется реальной энтропией источника, а т.к.
Н
аi
< Н
m
, R
и
= Н
аi
/τ
0
< С
К
.
Считается, что если
R
и
< С
К
, источник не согласован с каналом. При отсутствии
помех такое согласование можно осуществить с помощью статистического кодирования.
Составим группы из двух элементов: 00, 01, 10, 11. Определим вероятности этих
сообщений и с помощью методики Фэно закодируем эти сообщения статистическим
кодом. Определим энтропию источника и среднюю длину кодовой комбинации
n .
Пропускная способность канала будет реализована только при
Н
аi
= n . Но т.к. n > Н
аi
R
и
= Н
аi
/
n
⋅τ
0
< С
К
=1/τ
0
.
Посмотрим, получим ли
мы лучшее согласование источника с каналом при
группировке из трех элементов. Действуя аналогично, вновь получим
Н
аi
и n уже для
источника восьми сообщений: 000, 001, 010, 011, 100, 101, 110, 111. Выполнив расчеты,
убеждаемся, что коэффициент использования канала увеличился:
1→=
n
H
C
R
i
а
K
и
.
Чтобы получить еще лучшее согласование источника с каналом, необходимо
дальнейшее укрупнение сообщений. Ясно, что это усложнит технику кодирования.
Таким образом, получено практическое доказательство первой теоремы Шеннона о
кодировании.
Страницы
- « первая
- ‹ предыдущая
- …
- 10
- 11
- 12
- 13
- 14
- …
- следующая ›
- последняя »