Концепции современного естествознания. Материалы к семинарским занятиям. Браже Р.А. - 34 стр.

UptoLike

Составители: 

Выражение (3.4) называется законом Нернста (в честь
немецкого физикохимика В. Нернста) или
третьим началом
термодинамики.
Из приведенных рассуждений ясно, что
физический смысл
энтропии состоит в том, что она есть мера разупорядочения
системы или мера ее близости к хаосу.
Понятно, что в
открытых системах, взаимодействующих с
другими системами или отдельными телами,
энтропия может и
понижаться.
Тогда в системе имеет место упорядочение.
Абсолютного хаоса (по древнегреческой мифологии
Chaos —
беспредельное, бесформенное первородное состояние мира
) в
ограниченной части Вселенной не существует, так как, согласно
(3.1), (3.2), для
S требуется чтобы число частиц в
системе
N .
3.2. Информация, как мера упорядоченности
системы
Под информацией
(от лат. informatio — разъяснение,
изложение)
понимают любые сведения, передаваемые с
помощью какихлибо сигналов или знаков от одного
объекта к другому объект у
. При этом в качестве объектов
могут выступать люди, любые живые организмы или даже
отдельные клетки, а также технические устройства. Как отмечал
академик В .М.Глушков: «Информация существует, поскольку
существуют сами материальные тела и, следовательно,
созданные ими неоднородности. Всякая неоднородность несет с
собой какуюто информацию». Таким образом,
любое
отклонение от хаоса в сторону структурирования и
упорядочения системы повышает информацию о ней.
Поскольку энтропия системы при этом уменьшается, то
австрийский физик Э. Шредингер (1887—1961) предложил
считать информацию величиной, равной энтропии со знаком
«минус». Французский физик и специалист по теории
информации Л. Бриллюэн (1889—1969) назвал информацию
I
негэнтропией. Таким образом,