Квалиметрия. Варжапетян А.Г. - 45 стр.

UptoLike

Составители: 

45
роятность обратного события q = 1– p,
предположим что p = q= 1/2, тогда U =
= max = 1 биту. Такая ситуация пока
зана на рис. 2.2.
Далее в тексте будем придерживать
ся оценок информационной энтропии по
Шеннону. Иллюстрация снятия нео
пределенности дана на рис. 2.3. Когда
исход определен, то U
0
= 0, при этом по
лагают, что использована вся гделибо
имеющаяся информация. На рис. 2.3
показаны все промежуточные ситуации.
Обозначим начальную неопределен
ность – U; U
1
– конечную после проведе
ния оценки или измерения, тогда:
U – U
0
– характеризует максимальный
объем информации, который может быть
получен.
U – U
1
– объем новых знаний;
U
2
– U
0
– объем недостающих знаний.
Следует отметить, что чаще всего существуют расхождения меж
ду объемом полученной информации, что отражено на рисунке двумя
значениями U
1
и
U
2
и двусторонней стрелкой. Это обстоятельство
объясняется рядом причин:
1. Недоступностью полного объема информации, поэтому в боль
шинстве практических случаев U
0
> 0.
2. Несовершенством информации, когда ее характеристики недо
стоверны и несвоевременны.
3. Неадекватностью самой модели снятия неопределенности, т. е.
в нее введены излишние ограничения и упрощения.
4. Двусмысленностью получаемой информации.
5. Прочими погрешностями (стиль и метод принятия решения,
оснащенность техникой органа принятия решения).
Пример. Поставлен вопрос: когда открыт транзистор до 1950 г.
или позже. Событие определенное, вся информация имеется. Тогда:
0
11
1 lg(1) 0 lg(0) 0; 1;
1111
lg lg 1; 0.
2222
UUU
UUU
1 23 2 3 1 2 1
45 45
1 23 23 1 2 1
67 67
89 89
Более подробные сведения об оценке информационной энтропии
можно получить в [5,6].
U
1
1/2
?
Рис. 2.2. Зависимость
неопределенности в
случае двух исходов
U
3
U
1
U
2
U
0
Pис. 2.3. Уровни неопредеD
ленности