ВУЗ:
Составители:
Рубрика:
20
эффективным, а т.к. при его создании учитываются вероятности сообщений, он
называется
статистическим и без разделительных знаков, т.к. возможно
однозначное декодирование, если при передаче нет ошибок за счет помех.
Алгоритм оптимального статистического кодирования предложили Фано и
Хаффмен. Методика Фано заключается в следующем:
1. Подлежащие кодированию сообщения располагают в первом столбце в
порядке убывания их вероятностей .
2. Сообщения разбиваются на две группы с примерно равными суммарными
вероятностями. Группе,
имеющей большую суммарную вероятность, приписывается
наиболее вероятный символ кодовой комбинации, например - 0, второй группе - 1.
3. Сообщения, входящие в каждую из групп, вновь разбиваются на две группы с
примерно равными вероятностями. И здесь, группе с большей вероятностью
присваивается символ - 0, с меньшей - 1.
Этот процесс продолжается до тех пор, пока в каждой группе не останется
по
одному элементу.
Применение статистического кодирования имеет большое практическое
значение. Например, при временном уплотнении линий связи в ночное время
большинство абонентов не пользуется телефоном, и групповой сигнал в линии связи
большей частью состоит из нулей. Производительность источника много меньше
пропускной способности канала. Отключать абонентов нельзя, но их сообщения
можно перекодировать статистическим
кодом, они станут много короче, и в
освободившееся время можно передавать другие сообщения, например, телеграммы,
тексты газет и т.п.
Рассмотрим методику такого кодирования. Пусть статистика цифрового потока
такова: вероятность нуля P(0)= 0,9, тогда P(1)=0,1 .По таблице приложения 1
определяем энтропию источника. Н=0,469 бит/символ. Скорость передачи
значительно меньше пропускной способности канала. Для согласования
источника с
каналом Шеннон предлагает укрупнять кодируемые последовательности.
Закодируем сообщения группами из двух символов. Получим четыре сообщения,
которые вместе с их вероятностями представим таблицей:
Таблица 3.2
00 0,81 0 0
01 0,09 1 11
10 0,09 0 100
11 0,01
1
0
1 101
Найдем энтропию источника, пользуясь той же таблицей приложения.
Н=0,246+0,312+0,312+0,066=0,938 бит/сообщение. Средняя длина кодовой
комбинации
n
−
= 0,81+0,09 .2+ 0,09 .3+ 0,01 .3 = 1,29 сим./сообщ. Удельная
энтропия источника равна энтропии источника сообщений, деленной на среднюю
длину комбинаций: Н/n=0,727 бит/сим. Эта энтропия существенно выше, чем была
Страницы
- « первая
- ‹ предыдущая
- …
- 18
- 19
- 20
- 21
- 22
- …
- следующая ›
- последняя »