Молекулярная и статистическая физика. Крутов А.В - 60 стр.

UptoLike

60
энтропии и информации. Термин энтропия впервые введен в науку Клау-
зисом в 1865 году при исследовании законов термодинамики Затем он
приобрел широкую популярность в самых разнообразных отраслях знаний
В настоящее время считается общепринятым понятие энтропии как "мера
беспорядка. Энтропия - это мера макроскопического равновесия, однород -
ности, бесструктурности, хаотичности микропроцессов, их освобождение
от макроскопической упорядоченности. Строгий физический смысл этому
понятию дал австрийский физик Л . Больцман, который предложил для ко-
личественной оценки энтропии Н -функцию :
энтропия физической системы была выражена Больцманом формулой
где W
i
- вероятность i-ro микросостояния системы, k - постоянная Больц-
мана (k = 1,3810
23
Дж/К).
Понятие информации ввел в науку Шенон в 1947 году, занимаясь
разработкой теории связи . Информацию отождествляют с мерой снятой
неопределенности. Формула для количественной оценки информации, из-
меряемой в битах, аналогична формуле Больцмана :
где р
i
- вероятность i-исхода, k - постоянная (k = 1/ln2).
Понятия энтропии и информации получили множество интерпрета-
ций и нашли широкое приложение при анализе самоорганизующихся, са-
морегулирующихся систем .
Для информации и энтропии можно записать аналог закона сохране -
ния
Н + I = const,
являющегося модификацией закона сохранения энергии в природе. В бо-
лее широком смысле в природе действует закон сохранения субстанции
А + В = const,
где А и В - различия внутри единства , являющиеся сторонами одной и той
                                  60

энтропии и информации. Термин энтропия впервые введен в науку Клау-
зисом в 1865 году при исследовании законов термодинамики Затем он
приобрел широкую популярность в самых разнообразных отраслях знаний
В настоящее время считается общепринятым понятие энтропии как "мера
беспорядка. Энтропия - это мера макроскопического равновесия, однород-
ности, бесструктурности, хаотичности микропроцессов, их освобождение
от макроскопической упорядоченности. Строгий физический смысл этому
понятию дал австрийский физик Л. Больцман, который предложил для ко-
личественной оценки энтропии Н-функцию:




энтропия физической системы была выражена Больцманом формулой



где Wi - вероятность i-ro микросостояния системы, k - постоянная Больц-
мана (k = 1,38⋅10−23Дж/К).
      Понятие информации ввел в науку Шенон в 1947 году, занимаясь
разработкой теории связи. Информацию отождествляют с мерой снятой
неопределенности. Формула для количественной оценки информации, из-
меряемой в битах, аналогична формуле Больцмана:




где рi - вероятность i-исхода, k - постоянная (k = 1/ln2).
       Понятия энтропии и информации получили множество интерпрета-
ций и нашли широкое приложение при анализе самоорганизующихся, са-
морегулирующихся систем.
       Для информации и энтропии можно записать аналог закона сохране-
ния
                                 Н + I = const,
являющегося модификацией закона сохранения энергии в природе. В бо-
лее широком смысле в природе действует закон сохранения субстанции
                                А + В = const,
где А и В - различия внутри единства, являющиеся сторонами одной и той