ВУЗ:
Составители:
Рубрика:
5.5 Информационные оценки ИУВС
Для информационной оценки динамических свойств ИУВС часто
используют следующие положения теории информации.
Множество возможных результатов измерения конечно и может
определяться, например, при количественной оценке входной величины х в
виде N=(x
max
−
x
min
)/ε, где ε — погрешность измерения. Поскольку результат
измерения представляется в числовом виде, то N=h
l
, где l — количество
разрядов, h — основание кода, а величина ε приобретает смысл шага
квантования: ε=∆x.
Для характеристики количественной информации, которая может быть
получена от данного средства измерения, более удобной часто оказывается
логарифмическая мера, предложенная Р.Хартли: I=logN=l log h, − линейно
зависящая от количества разрядов l. При измерении независимых величин
(х
1
, х
2
, ... , х
k
) общее количество информации при применении
логарифмической меры I(х
1
, х
2
, ... , х
k
)=I(х
1
)+ I(х
2
)+... +I(х
k
). При
использовании двоичного кода – основного кода представления
измерительной информации в микроЭВМ – единицей количества
информации является I = l⋅log
2
2=l бит.
Если появления тех или иных результатов измерения рассматривать как
случайные события с известной плотностью распределения f(x),
представленные выборками вероятностей p(x
i
) ≈ f(x
i
)
⋅
∆x, то
неопределенность различаемых состояний можно характеризовать в виде
энтропии Н(Х):
,log)(log)(log)(])(log[)()(
max
mi
n
1
xXhxdxxfxfxxfxxfXH
x
x
N
i
ii
∆−−=∆
∫
−−≈
∑
∆∆−=
=
∫
−=
max
mi
где
n
)(log)()(
x
x
dxxfxfXh − дифференциальная энтропия.
Для равномерного распределения:
h(X)=log(x
max
−
x
min
),
5.5 Информационные оценки ИУВС
Для информационной оценки динамических свойств ИУВС часто
используют следующие положения теории информации.
Множество возможных результатов измерения конечно и может
определяться, например, при количественной оценке входной величины х в
виде N=(xmax− xmin)/ε, где ε — погрешность измерения. Поскольку результат
измерения представляется в числовом виде, то N=hl, где l — количество
разрядов, h — основание кода, а величина ε приобретает смысл шага
квантования: ε=∆x.
Для характеристики количественной информации, которая может быть
получена от данного средства измерения, более удобной часто оказывается
логарифмическая мера, предложенная Р.Хартли: I=logN=l log h, − линейно
зависящая от количества разрядов l. При измерении независимых величин
(х1, х2, ... , хk) общее количество информации при применении
логарифмической меры I(х1, х2, ... , хk)=I(х1)+ I(х2)+... +I(хk). При
использовании двоичного кода – основного кода представления
измерительной информации в микроЭВМ – единицей количества
информации является I = l⋅log22=l бит.
Если появления тех или иных результатов измерения рассматривать как
случайные события с известной плотностью распределения f(x),
представленные выборками вероятностей p(xi) ≈ f(xi)⋅ ∆x, то
неопределенность различаемых состояний можно характеризовать в виде
энтропии Н(Х):
N xmax
H ( X ) = − ∑ f ( xi )∆x log[ f ( xi ) ∆x] ≈ − ∫ f ( x) log f ( x) dx − log ∆x = −h( X ) − log ∆x,
i =1 xmin
xmax
где h( X ) = − ∫ f ( x) log f ( x) dx − дифференциальная энтропия.
xmin
Для равномерного распределения:
h(X)=log(xmax− xmin),
Страницы
- « первая
- ‹ предыдущая
- …
- 73
- 74
- 75
- 76
- 77
- …
- следующая ›
- последняя »
