ВУЗ:
Составители:
Рубрика:
50
качественную определенность состояний системы. Преобразования, про-
исходящие в систем»., смена состояний системы - это события, в которых
необходимо получить информацию для управления тем или иным процес-
сом.
В процессе управления производством постоянно возникает нео-
пределенность в состоянии дел в управляемом объекте - предприятии,
цехе, участке. Необходимо постоянно знать, как выполняется производ-
ственная программа, как обстоят дела с обеспечением предприятия сы-
рьем и материалами, как реализуется готовая продукция и т.п. Чтобы знать,
как поступить в данной конкретной хозяйственной ситуации, какое при-
нять решение, чтобы устранить неопределенность, необходима информа-
ция. Информация это все то, что устраняет неопределенность.
Некоторое событие, имеющее конечное число возможных исходов,
характеризуется неопределенностью. Если есть несколько вариантов ис-
хода события, то неизвестно, какой из них реализуется. Неопределенность
зависит от числа возможных исходов m и вероятности каждого из них p
i
(формула (5.5)), Мерой неопределенности является энтропия. Чем выше
неопределенность в системе, тем больше ее энтропия. И, наоборот, чем
достовернее знания о поведении системы, чем она упорядоченнее, тем
меньше ее энтропия. Энтропия характеризует уровень организованности
системы. Чем неорганизованнее система, тем больше ее энтропия.
Если система стремится к беспорядку, то ее энтропия возрастает.
Нарастанию беспорядка противостоят процессы управления, направлен-
ные на устранение или уменьшение неопределенности поведения систе-
мы, на уменьшение ее энтропии.
Мера количества информации трактуется как мера, устранения или
уменьшения неопределенности при свершении какого-либо события. Чем
неопределеннее исход того или иного события, тем больше количества
информации несет сообщение о его результатах. Энтропия является ме-
рой неопределенности исхода события, информация снимает эту неопре-
деленность.
Проиллюстрируем эти положения некоторыми примерами. При
двух равновероятных исходах события, т.е. при т = 2; p
1
= р
2
= 0,5; p
1
+p
2
= 1, количество информации в сообщении равно
∑
=+−=−= бит 1)5,0log5,05,0log5,0(log
222 ii
ppI
Количество информации, содержащееся в сообщении о событии с
PDF created with pdfFactory Pro trial version www.pdffactory.com
качественную определенность состояний системы. Преобразования, про-
исходящие в систем»., смена состояний системы - это события, в которых
необходимо получить информацию для управления тем или иным процес-
сом.
В процессе управления производством постоянно возникает нео-
пределенность в состоянии дел в управляемом объекте - предприятии,
цехе, участке. Необходимо постоянно знать, как выполняется производ-
ственная программа, как обстоят дела с обеспечением предприятия сы-
рьем и материалами, как реализуется готовая продукция и т.п. Чтобы знать,
как поступить в данной конкретной хозяйственной ситуации, какое при-
нять решение, чтобы устранить неопределенность, необходима информа-
ция. Информация это все то, что устраняет неопределенность.
Некоторое событие, имеющее конечное число возможных исходов,
характеризуется неопределенностью. Если есть несколько вариантов ис-
хода события, то неизвестно, какой из них реализуется. Неопределенность
зависит от числа возможных исходов m и вероятности каждого из них pi
(формула (5.5)), Мерой неопределенности является энтропия. Чем выше
неопределенность в системе, тем больше ее энтропия. И, наоборот, чем
достовернее знания о поведении системы, чем она упорядоченнее, тем
меньше ее энтропия. Энтропия характеризует уровень организованности
системы. Чем неорганизованнее система, тем больше ее энтропия.
Если система стремится к беспорядку, то ее энтропия возрастает.
Нарастанию беспорядка противостоят процессы управления, направлен-
ные на устранение или уменьшение неопределенности поведения систе-
мы, на уменьшение ее энтропии.
Мера количества информации трактуется как мера, устранения или
уменьшения неопределенности при свершении какого-либо события. Чем
неопределеннее исход того или иного события, тем больше количества
информации несет сообщение о его результатах. Энтропия является ме-
рой неопределенности исхода события, информация снимает эту неопре-
деленность.
Проиллюстрируем эти положения некоторыми примерами. При
двух равновероятных исходах события, т.е. при т = 2; p1= р2 = 0,5; p1+p2
= 1, количество информации в сообщении равно
I = −∑ pi log 2 pi = −(0,5 log 2 0,5 + 0,5 log 2 0,5) = 1 бит
Количество информации, содержащееся в сообщении о событии с
50
PDF created with pdfFactory Pro trial version www.pdffactory.com
Страницы
- « первая
- ‹ предыдущая
- …
- 48
- 49
- 50
- 51
- 52
- …
- следующая ›
- последняя »
