Статистическое компрессирование аудио сигналов. Вологдин Э.И. - 22 стр.

UptoLike

Составители: 

22
OptimFROG
RealPlayer RealAudio Lossless
Shorten SHN
TAK (T)om‘s verlustfreier (A)udio (K)ompressor (нем.)
TTA True Audio Lossless
WavPack WavPack lossless
WMA Lossless Windows Media Lossless
Табл.2. Энтропийное кодирование с предсказанием
Системы кодирования
Модель предсказания
Энтропийное кодирование
Shorten
FIR-предсказание
Rice
DVD
IIR - предсказание
Haffman
MusiCompress
Адаптивная аппроксимация
Haffman
AudioPack
Полиномиальная аппроксимация
Golombo
LTAC
Ортогонльные преобразования
Rice
IniMDCT
Интегральные преобразования
Haffman
C-LPAC
FIR-предсказание
Моделирование
Краткая характеристика некоторых из этих кодов приведена в табл.2. Из приведенных
алгоритмов наибольший практический интерес представляют, те которые стандартизиро-
ваны и массово применяются в цифровой аудиотехнике при звукозаписи и передачи дан-
ных по каналам связи. К ним относятся:
Audio Lossless Coding также известен как MPEG-4 ALS, предназначен для ши-
рокого применения.
Direct Stream Transfer DST, применяется в звукозаписи по стандарту Super Audio
CD,
Meridian Lossless Packing MLP, применяется в звукозаписи по стандарту DVD-
Audio
4.2. Коды переменной длины
Первое правило построения кодов с переменной длиной символов очевидно. Корот-
кие коды следует присваивать часто встречающимся символам, а длинные- редко встре-
чающиеся. Есть и другая проблема. Эти коды надо назначать так, чтобы их можно было
декодировать только однозначно, а не двусмысленно.
Пусть четыре двоичных символа
1
a
,
2
a
3
a
и
длиной 2 появляются с равной вероят-
ностью 0,25, тогда им присваиваются двух битовые комбинации: 00, 10, 01 и 11. Это зна-
чит, что для передачи каждой кодовой комбинации требуются два бита. Так как все кодо-
вые комбинации имеют равные вероятности, то коды переменной длины не в состоянии
сжать эти данные.
Пусть теперь эти четыре символа имеют разные вероятности, приведенные в табл.4.3.
В этом случае имеется избыточность, которую можно
устранить с помощью переменных кодов и сжать так,
чтобы требовалось меньше двух бит на символ. В со-
ответствии с теорией информации наименьшее число
бит на символ в среднем равно 1,57, это есть энтропия
множества символов. В табл.3
code
1 присваивает са-
мому часто встречающемуся символу самый короткий
код. В этом коде среднее число бит на символ (энтропия) равна:
1 0,49 2 0,25 3 0,25 3 0,01 1,77
. Это число весьма близко к теоретическому миниму-
му.
Пусть последовательность из 20 символов закодирована 37 битами в
code
1:
Если попробовать декодировать эту последовательность, то окажется, что
code
1 из табл.
Табл.3. Коды переменной длины