Элементы и узлы информационных и управляющих систем (Основы теории и синтеза). Булатов В.Н. - 75 стр.

UptoLike

Составители: 

Рубрика: 

5.5 Информационные оценки ИУВС
Для информационной оценки динамических свойств ИУВС часто
используют следующие положения теории информации.
Множество возможных результатов измерения конечно и может
определяться, например, при количественной оценке входной величины х в
виде N=(x
max
x
min
)/ε, где εпогрешность измерения. Поскольку результат
измерения представляется в числовом виде, то N=h
l
, где l количество
разрядов, h — основание кода, а величина ε приобретает смысл шага
квантования: ε=x.
Для характеристики количественной информации, которая может быть
получена от данного средства измерения, более удобной часто оказывается
логарифмическая мера, предложенная Р.Хартли: I=logN=l log h, линейно
зависящая от количества разрядов l. При измерении независимых величин
(х
1
, х
2
, ... , х
k
) общее количество информации при применении
логарифмической меры I(х
1
, х
2
, ... , х
k
)=I(х
1
)+ I(х
2
)+... +I(х
k
). При
использовании двоичного кодаосновного кода представления
измерительной информации в микроЭВМединицей количества
информации является I = llog
2
2=l бит.
Если появления тех или иных результатов измерения рассматривать как
случайные события с известной плотностью распределения f(x),
представленные выборками вероятностей p(x
i
) f(x
i
)
x, то
неопределенность различаемых состояний можно характеризовать в виде
энтропии Н(Х):
,log)(log)(log)(])(log[)()(
max
mi
n
1
xXhxdxxfxfxxfxxfXH
x
x
N
i
ii
=
=
=
=
max
mi
где
n
)(log)()(
x
x
dxxfxfXh дифференциальная энтропия.
Для равномерного распределения:
h(X)=log(x
max
x
min
),
                                 5.5 Информационные оценки ИУВС


   Для информационной оценки динамических свойств ИУВС часто
используют следующие положения теории информации.
   Множество               возможных       результатов    измерения      конечно         и     может
определяться, например, при количественной оценке входной величины х в
виде N=(xmax− xmin)/ε, где ε — погрешность измерения. Поскольку результат
измерения представляется в числовом виде, то N=hl, где l — количество
разрядов, h — основание кода, а величина ε приобретает смысл шага
квантования: ε=∆x.
   Для характеристики количественной информации, которая может быть
получена от данного средства измерения, более удобной часто оказывается
логарифмическая мера, предложенная Р.Хартли: I=logN=l log h, − линейно
зависящая от количества разрядов l. При измерении независимых величин
(х1,   х2,    ...     ,    хk)    общее    количество     информации         при     применении
логарифмической меры I(х1, х2, ... , хk)=I(х1)+ I(х2)+... +I(хk). При
использовании               двоичного       кода    –    основного      кода       представления
измерительной               информации       в     микроЭВМ     –      единицей         количества
информации является I = l⋅log22=l бит.
   Если появления тех или иных результатов измерения рассматривать как
случайные            события        с     известной     плотностью      распределения              f(x),
представленные               выборками        вероятностей     p(xi)     ≈     f(xi)⋅        ∆x,     то
неопределенность различаемых состояний можно характеризовать в виде
энтропии Н(Х):
             N                                   xmax
H ( X ) = − ∑ f ( xi )∆x log[ f ( xi ) ∆x] ≈ − ∫ f ( x) log f ( x) dx − log ∆x = −h( X ) − log ∆x,
             i =1                                xmin
                    xmax
где h( X ) = − ∫ f ( x) log f ( x) dx − дифференциальная энтропия.
                    xmin

   Для равномерного распределения:
                    h(X)=log(xmax− xmin),