Описание структуры и алгоритмов функционирования информационно-измерительных систем. Чемодаков А.Л. - 7 стр.

UptoLike

Составители: 

7
Нетрудно убедиться, что при всех равновероятных сообщениях ( p
1
= p
2
= ... =
p
N
) эта формула выльется в формулу Хартли :
H = log
2
N (2.4)
2.2.2 Энтропия источника непрерывных сообщений
Контролируемая в процессе измерения физическая величина представляет
собой, как правило, непрерывный случайный процесс, характеризуемый законом
распределения вероятностей F(X) или плотностью вероятности φ(X).
Для оценки энтропии системыисточник сигнала-аналога контролируемого
параметрасредство измерения необходимо учесть разрешающую способность
прибора Δ x. В этом случае система может рассматриваться как дискретная с
интервалом разбиения диапазона измерения
X
max
– X
min
на дискретные отрезки,
равные Δ x. Обозначив через α
i
и β
i
границы i – того участка разбиения (рисунок
1), можно определить вероятность попадания значения контролируемого
параметра в этот интервал:
βi
p( α
i <
x < β
i
) = ϕ (x) dx (2.5)
α
i
ϕ(x)
x
α
i
β
i
Рисунок 1
Определив вероятности попадания значений параметра во все интервалы
разбиения, по формуле Шеннона (2.3) можно получить оценку энтропии и в этом
случае.
    Нетрудно убедиться, что при всех равновероятных сообщениях ( p1 = p2 = ... =
pN) эта формула выльется в формулу Хартли :
                            H = log 2 N                               (2.4)


    2.2.2 Энтропия источника непрерывных сообщений
    Контролируемая в процессе измерения физическая величина представляет
собой, как правило, непрерывный случайный процесс, характеризуемый законом
распределения вероятностей F(X) или плотностью вероятности φ(X).
    Для оценки энтропии системы “источник сигнала-аналога контролируемого
параметра – средство измерения” необходимо учесть разрешающую способность
прибора Δ x. В этом случае система может рассматриваться как дискретная с
интервалом разбиения диапазона измерения Xmax – Xmin на дискретные отрезки,
равные Δ x. Обозначив через αi и βi границы i – того участка разбиения (рисунок
1), можно определить вероятность попадания значения контролируемого
параметра в этот интервал:
                                        βi
                     p( αi < x < βi ) = ∫ ϕ (x) dx                   (2.5)
                                       αi
                  ϕ(x)




                                                             x
                           αi βi


                                     Рисунок 1
    Определив вероятности попадания значений параметра во все интервалы
разбиения, по формуле Шеннона (2.3) можно получить оценку энтропии и в этом
случае.

                                                                               7