Логистика человеко-машинных систем. Чертыковцев В.К. - 6 стр.

UptoLike

Составители: 

Рубрика: 

7
и характеризует функцию состояния системы.
Больцман показал, что в самопроизвольно протекающих процессах физическая энтропия
всегда возрастает, он выводит формулу энтропии через статистический вес сотояния системы - P
i
S = -k N
=
M
i
ii
PP
1
ln
, (1.2)
где Р =
N
N
i
; N =
=
M
i
i
N
1
; N
i
число атомов или молекул в i-том состоянии системы;
)1( Mi
÷
;
Mчисло возможных состояний системы; k = 1,38 10
-23
Дж/Кпостоянная Больцмана.
Можно переписать формулу Больцмана (1.2) в виде:
Р = е
S/k
. (1.3)
В формуле (1.3) в качестве Р фигурирует не обычная вероятность, а статистический весчисло
способов осуществления данного состояния системы. Выпадение кубической игральной кости с
различным числом очков может быть реализовано шестью способами. В этом случае
статистический вес состояния брошенной кости равен Р = 6.
Вероятность состояния системы Р экспоненциально растет с ростом физической
энтропии.
Неупорядоченное состояние более вероятно, чем упорядоченное. Менее упорядоченное состояние
имеет больший статистический вес, так как оно может быть реализовано большим числом
способов, чем упорядоченное.
Таким образом, физическая энтропия - есть мера неупорядоченности системы.
Сохраняясь, подобно энергии, в обратимых процессах, энтропия постоянно возрастает в
процессах необратимых, и стремиться к своему максимальному
значению при равновесном
состоянии системы. Энтропия достигает своего максимального значения не мгновенно, а для этого
требуется определенное время. Таким образом, необратимый процесс означает движение системы
к равновесию во времени.
Однако возрастание энтропии происходит только в замкнутых системах, тогда как все живые
системы являются разомкнутыми, способными к самоорганизации, благодаря обмену веществом и
энергией с окружающей средой [30].
В открытых системах (обменивающихся с окружающей средой веществом и энергией)
возникают совершенно другие ситуации. Здесь, по-видимому, подключается вторая составляющая
мироздания (идея), которая обеспечивает уменьшение физической энтропии в живых системах.
Разумная деятельность человека направлена на преодоление беспорядка в системе, т.е.
уменьшению энтропии.
Энтропия является объективной мерой отсутствия информации о системе. Это мера
принципиальной невозможности получения информации о неустойчивых системах. Отсутствие
информации есть свойство системы, а не наблюдателя.
Шеннон предложил информационную энтропию - Н (отсутствие информации о системе) -
неопределенность состояния системы описать следующим уравнением
HPP
ii
i
N
=−
=
log
1
, (1.4)
где Р
i
- вероятность состояния объектов системы; N - число объектов в системе.
Максимальная информационная энтропия в системе возникает при равновероятных событиях
Р
i
= 1/N, тогда из (1.4) следует
NH
2max
log
=
. (1.5)