Общая физика. Молекулярная физика: Структурированный конспект лекций. Ч.1. Москвич О.И - 16 стр.

UptoLike

31
4.2
С
Определение температуры в статистике
С увеличением энергии системы число доступных ей микросостояний растет, причем
для обычных систем крайне быстро, поэтому постоянная
β
всегда положительная
величина.
β
- характеристика как подсистемы, так и полной системы, которая находится в
состоянии
термодинамического равновесия. Именно через этот универсальный
параметр в статистике вводится
термодинамическая температура:
0
0
)(ln
1
ε
ε
β
α
Γ
==
kT
(4.2).
Таким образом температура является фундаментальным свойством системы, она
обратно пропорциональна относительной скорости изменения количества
микросостояний при увеличении энергии системы. Определение температуры (4.2)
мы будем называть «первичным» или «из первых принципов». Существуют и другие
способы определения температуры, мы познакомимся с ними позже.
Определение энтропии в статистике
Энтропия, как и энергия, является фундаментальной характеристикой
макроскопической системы. Энтропию называют мерой хаоса или мерой
неопределенности. Определение энтропии в статистике связано с именем
австрийского ученого Людвига Больцмана (1844 – 1906гг), основателя
статистической физики и физической кинетики.
Формула Больцмана для энтропии
имеет вид:
α
Γ= lnkS
(4.3).
Действительно, если больше S, значит больше
α
Γ и значит больше хаос и
неопределенность (Какое из множества микросостояний
α
Γ реализуется?) При
стремлении изолированной системы к состоянию термодинамического равновесия
термодинамическая вероятность
α
Γ стремится к максимуму, а значит и энтропия в
равновесном состоянии имеет максимальное значение. То есть «хаос» и
«равновесие» - слова синонимы. Упорядоченная система характеризуется низкой
энтропией. Порядок несет информацию. В середине двадцатого века энтропийное
определение информации ушло за пределы молекулярной статистики в теорию
информации, кибернетику, лингвистику и многие другие области.
Определение температуры (4.2) можно записать с использованием понятия
энтропии:
ε
ε
α
Γ
=
)(ln
1
k
T
;
ε
α
Γ
=
)ln(
1
k
T
;
E
S
T
=
1
, или
T
E
dS
=
(4.4)
Эта формула, как мы увидим в дальнейшем, является «мостом», соединяющим два
метода: статистический и термодинамический.
32
4.3
4.4
Статистическая сумма. Метод статистической суммы
Статистическая сумма Z
не имеет физического смысла, вводится для формализации и упрощения расчетов
в статистических исследованиях
Дискретное распределение энергии:
=
α
βε
α
eZ
,
из условия нормировки:
==
αα
βε
αα
α
1eAgP ,
Z
eg
A
11
==
α
βε
α
α
Непрерывное распределение
энергии:
+∞
=
0
)(
εερ
βε
deZ
,
из условия нормировки:
+∞
+∞
==
00
1)(
εερ
βε
dAedP - условие
нормировки,
Z
de
A
1
)(
1
0
==
+
εερ
βε
,
Метод статистической суммы
С помощью статистической суммы можно выразить многие важнейшие
характеристики системы и, прежде всего, ее среднюю энергию и дисперсию этой
величины:
;
ln1
V V
ZZ
Z
=
=
ββ
ε
β
ε
ββ
εσ
=
=
Z
Z
1
)(
2
;
Распределение Гиббса, или каноническое распределение
(рабочие формулы)
Дискретное распределение энергии:
α
βε
αα
ε
= AeP )(
;
Если к состоянию подсистемы с энергией
α
ε
приводит не одно микроскопическое
состояние подсистемы, тогда:
α
βε
ααα
ε
= eAgP )(
(4.5),
где
α
g - кратность вырождения: число
микроскопических состояний подсистемы
приводящих к состоянию с
фиксированным значением
α
ε
Непрерывное распределение энергии:
[
]
εεεε
d+ ,
εερεε
βεβε
dAedgAedP )()()(
==
(4.6),
где )(
ρ
- плотность состояний с
энергией
[
]
ε
ε
d
+
,
,
ε
ε
ε
d
dP
f
)(
)( = - плотность вероятности.