Основы менеджмента: понятие кибернетики и общие вопросы управления. Иванов Л.Б - 51 стр.

UptoLike

Рубрика: 

51
двумя равновероятными исходами, принимается за единицу количества
информации, которая носит название бит или двоичная единица
(binari digit). При трех возможных исходных событиях количество
информации зависит от их вероятности. Так, если по данным стати-
стического учета известно, что вероятность выпуска продукции
первого сорта составит p
1
=0,24, второго сорта р
2
=0,6, третьего сорта
р
3
=0,16, то количество информации о фактическом выпуске продук-
ции по сортам составит
97,0)16,0log16,060,0log60,024,0log24,0(
222
=++=I бит,,
если бы вероятности каждого из трех исходов были равны между собой,
т.е. p
1
=р
2
=р
3
=0,33, то неопределенность в выпуске продукции по сортам
достигла бы своего предела, а количество информации в сообщении о
результатах выпуска по сортам было бы максимальным и равнялось 1,58
бит. При увеличении числа т равновероятных исходов количество ин-
формации в сообщении о результатах исхода события будет возрастать.
Нетрудно убедиться, что чем больше вероятность определенного
исхода события, тем меньше количество информации несет сообщение о
его результатах. При одновероятном исходе события, если исход конк-
ретного события заранее предрешен и однозначен, т.е. если его вероят-
ность p
i
=l, то сообщение о результатах данного события никакой инфор-
мации не несет. При p
i
=l
01log
2
==I (5.6)
Последний пример подтверждает положение о том, что информа-
ция есть сообщение, устраняющее или уменьшающее неопределенность,
т.е. такое сообщение, которое несет в себе что-либо новое, ранее неизве-
стное о том или ином событии или факте. Чем менее вероятно событие,
чем оно неожиданнее, тем больше информации о нем содержится в со-
общении.
Если сообщение не полностью снимает первоначальную неопре-
деленность, то количество информации в данном сообщении будет рав-
но разности энтропий после и до получения сообщения. Уменьшение
энтропии означает, что получена полезная информация. Если неопреде-
ленность исхода события до его свершения измеряется величиной
12
log p , а после него
22
log p , то количество информации в сообщении
равно
12
HHI =
, или
PDF created with pdfFactory Pro trial version www.pdffactory.com
      двумя равновероятными исходами, принимается за единицу количества
      информации, которая носит название бит или двоичная единица
      (binari digit). При трех возможных исходных событиях количество
      информации зависит от их вероятности. Так, если по данным стати-
      стического учета известно, что вероятность выпуска продукции
      первого сорта составит p1=0,24, второго сорта р2=0,6, третьего сорта
      р3=0,16, то количество информации о фактическом выпуске продук-
      ции по сортам составит
              I = −(0, 24 ⋅ log 2 0,24 + 0,60 ⋅ log 2 0,60 + 0,16 ⋅ log 2 0,16) = 0,97 бит,,
      если бы вероятности каждого из трех исходов были равны между собой,
      т.е. p1=р2=р3=0,33, то неопределенность в выпуске продукции по сортам
      достигла бы своего предела, а количество информации в сообщении о
      результатах выпуска по сортам было бы максимальным и равнялось 1,58
      бит. При увеличении числа т равновероятных исходов количество ин-
      формации в сообщении о результатах исхода события будет возрастать.
             Нетрудно убедиться, что чем больше вероятность определенного
      исхода события, тем меньше количество информации несет сообщение о
      его результатах. При одновероятном исходе события, если исход конк-
      ретного события заранее предрешен и однозначен, т.е. если его вероят-
      ность pi=l, то сообщение о результатах данного события никакой инфор-
      мации не несет. При pi=l
              I = − log 2 1 = 0                      (5.6)
             Последний пример подтверждает положение о том, что информа-
      ция есть сообщение, устраняющее или уменьшающее неопределенность,
      т.е. такое сообщение, которое несет в себе что-либо новое, ранее неизве-
      стное о том или ином событии или факте. Чем менее вероятно событие,
      чем оно неожиданнее, тем больше информации о нем содержится в со-
      общении.
             Если сообщение не полностью снимает первоначальную неопре-
      деленность, то количество информации в данном сообщении будет рав-
      но разности энтропий после и до получения сообщения. Уменьшение
      энтропии означает, что получена полезная информация. Если неопреде-
      ленность исхода события до его свершения измеряется величиной
       log 2 p1 , а после него log 2 p2 , то количество информации в сообщении
      равно ∆I = H 2 − H1 , или


                                                                                        51



PDF created with pdfFactory Pro trial version www.pdffactory.com