ВУЗ:
Составители:
121
14
Энтропия и информация
Мы измеряем «беспорядок» в чем-то по
числу способов, какими может быть пред-
ставлено его содержимое, лишь бы внешне
все выглядело без изменения. Логарифм
числа способов — это энтропия.
Р. Фейман
Информация есть информация, а не мате-
рия и не энергия.
Н. Винер
14.1. Энтропия как мера близости системы
к хаотическому состоянию
Пусть имеется некоторая система, состоящая из N = 1 частицы,
могущей находиться в W = 2 доступных ей ячейках пространства, на-
пример, в ящике с перегородкой, в которой имеется отверстие
(рис. 14.1, а). Очевидно, если число частиц в таком ящике увеличить
до N = 2, то число возможных состояний системы W = 4 (рис. 14.1, б).
При N = 3 W = 8 (рис. 14.1, в).
Статистическим весом W системы называется величина, рав-
ная числу доступных состояний всех частиц, входящих в эту сис-
тему или, иначе, числу микросостояний системы.
Страницы
- « первая
- ‹ предыдущая
- …
- 119
- 120
- 121
- 122
- 123
- …
- следующая ›
- последняя »