logo

7.3. Энтропия

Энтропия является количественной характеристикой, определяющий характер процессов (равновесный, неравновесный), направление протекания (обратимый, необратимый) и вероятность процессов. Энтропия характеризует меру разупорядоченности системы.

Поскольку тепловое движение молекул является хаотичным, беспорядочным, то с помощью энтропии можно определить степень молекулярного беспорядка (хаоса).

С другой стороны, степень разупорядоченности системы можно характеризовать так называемой термодинамической вероятностью состояния (статистическим весом) W.

Термодинамическая вероятность (W) – это число различных способов, которыми может быть осуществлено данное состояние W1. Однако пользоваться термодинамической вероятностью для количественной оценки направленности протекания процессов неудобно, так как в случае нескольких систем необходимо прибегать к перемножению вероятностей. Удобнее, если бы удалось ограничится суммированием каких-то величин. Такой величиной и является энтропия, которую можно математически выразить через термодинамическую вероятность следующим образом:

Свойства энтропии:

1) если движение системы абсолютно упорядочено, то W=1 и S=0;

2) энтропия изолированной системой не может быть <0, поскольку в этом случае не может быть меньше единицы термодинамическая вероятность;

3) при необратимых процессах энтропия возрастает. Действительно, если, например, рассмотреть процесс расширения газа в пустоту, то при этом число способов которыми может быть осуществлено новое состояние больше, чем прежнее, т.е. , а поэтому;

4) уменьшаться энтропия может только в случае неизолированной системы.