Описание структуры и алгоритмов функционирования информационно-измерительных систем. Чемодаков А.Л. - 6 стр.

UptoLike

Составители: 

6
Действительно, один разряд может принимать одно из двух значений : 0 и 1, т. е.
N = 2. Тогда I = log
2
2 = 1бит.
Формула Хартли справедлива только тогда, когда каждое из N сообщений
появляется с равной вероятностью. Дело в том, что информацию несет только
сообщение, заранее не известное приемнику этого сообщения. Количество
информации в достоверном (т. е. в заранее известном сообщении), равно нулю.
В общем случае количество информации, содержащейся в одном сообщении,
зависит
от вероятности появления этого сообщения:
Ii = log
2
( 1/ p
i
)
[бит] (2.2)
где
p
i
вероятность появления i – го сообщения.
Из приведенной формулы видно, что чем менее вероятно полученное
сообщение, тем больше информации оно несет. Если закон распределения
значений измеряемого параметра (в диапазоне изменения этого параметра) не
является равновероятным, получаемые в процессе измерений результаты будут
нести различное количество информации.
2.2 Энтропия
2.2.1 Энтропия источника дискретных сообщений
Для информационной оценки системыисследуемый объектсредство
измеренияв теории информации введено понятие энтропии. Энтропияэто
среднее количество информации, приходящейся на одно сообщение.
Для получения формулы, позволяющей определить энтропию, рассмотрим
источник информации, который может выдавать N независимых дискретных
сообщений с вероятностями p
1
, p
2
, ..., p
i
, ..., p
N
. Рассмотрим длинную
последовательность из m сообщений ( m >> N ). В соответствии с теорией
вероятности каждое iтое сообщение появится в такой последовательности m
*
p
i
раз. С учетом того, что каждое iтое сообщение несет информацию I
1i
= log
2
1/p
i
= – log p
i
, все полученные iтые сообщения дадут информацию I
mi
= – m
*
p
i*
log
2
p
i
. Общая информация от всех m сообщений будет равна I
m
= – m
*
Σp
i *
log
2
p
i
.
Среднее количество информации, приходящееся на одно сообщение, т. е.
энтропия источника, будет:
H = I
m
/ m = – Σ p
i *
log
2
p
i
[бит]
(2.3)
Эта формула получила название формулы Шеннона.
Действительно, один разряд может принимать одно из двух значений : 0 и 1, т. е.
N = 2. Тогда I = log 2 2 = 1бит.
    Формула Хартли справедлива только тогда, когда каждое из N сообщений
появляется с равной вероятностью. Дело в том, что информацию несет только
сообщение, заранее не известное приемнику этого сообщения. Количество
информации в достоверном (т. е. в заранее известном сообщении), равно нулю.
    В общем случае количество информации, содержащейся в одном сообщении,
зависит от вероятности появления этого сообщения:
                            Ii = log 2 ( 1/ pi ) [бит]                 (2.2)
    где pi – вероятность появления i – го сообщения.
     Из приведенной формулы видно, что чем менее вероятно полученное
сообщение, тем больше информации оно несет. Если закон распределения
значений измеряемого параметра (в диапазоне изменения этого параметра) не
является равновероятным, получаемые в процессе измерений результаты будут
нести различное количество информации.


    2.2 Энтропия

     2.2.1 Энтропия источника дискретных сообщений
     Для информационной оценки системы “исследуемый объект – средство
измерения” в теории информации введено понятие энтропии. Энтропия – это
среднее количество информации, приходящейся на одно сообщение.
     Для получения формулы, позволяющей определить энтропию, рассмотрим
источник информации, который может выдавать N независимых дискретных
сообщений с вероятностями p1, p2, ..., pi, ..., pN. Рассмотрим длинную
последовательность из m сообщений ( m >> N ). В соответствии с теорией
вероятности каждое i – тое сообщение появится в такой последовательности m * pi
раз. С учетом того, что каждое i – тое сообщение несет информацию I1i = log 2 1/pi
= – log pi , все полученные i –тые сообщения дадут информацию Imi = – m*pi*log2
pi . Общая информация от всех m сообщений будет равна Im = – m* Σpi *log 2pi .
Среднее количество информации, приходящееся на одно сообщение, т. е.
энтропия источника, будет:

                        H = Im / m = – Σ pi * log 2 pi [бит]           (2.3)
    Эта формула получила название формулы Шеннона.


6