Составители:
41
I
X
(Y) = I
Y
(X),
где
I
Y
(X) = H[Y] – H[Y/X].
Поэтому данную величину называют полной взаимной информаци-
ей и обозначают I(X, Y).
Полная взаимная информация, содержащаяся в двух системах, мо-
жет быть определена по формуле
I(X, Y) = H[X] + H[Y] – H[X, Y].
Семантические меры информации
Статистические и структурные меры информации не позволяют оце-
нить содержательность информации, так как они не учитывают смыс-
ла сообщения и ценности его для адресата. Семантические меры дают
возможность избежать этого недостатка. Среди семантических мер
рассмотрим меры содержательности и меру целесообразности инфор-
мации.
Мера содержательности в сообщении A обозначается cont
(contents – содержание) и определяется в виде
cont(A) = µ (
Α
) = 1– µ(
Α
),
где µ – аддитивная функция; – знак логического отрицания.
Функция µ должна удовлетворять следующим условиям:
µ(A) + µ(A) = 1; 0 ≤ µ(A) ≤ 1.
Значение функции µ(A) отражает истинность высказывания A, а зна-
чение µ(A) – ложность этого высказывания.
Помимо этой меры используется также аддитивная мера содержа-
тельности информации в сообщении A, которая обозначается символом
inf и определяется выражением
inf A = –log µ(A) = –log(1 – cont(A)).
К мерам целесообразности (ценности) информации относятся меры,
которые позволяют оценить изменение эффекта какого-либо действия в
результате использования информации.
Такой мерой является мера Харкевича, который предложил оцени-
вать целесообразность информации по формуле
Страницы
- « первая
- ‹ предыдущая
- …
- 39
- 40
- 41
- 42
- 43
- …
- следующая ›
- последняя »