Энтропия

Энтропи́я (обычно обозначается S) — функция состояния термодинамической системы, изменение которой dS в равновесном процессе равно отношению количества теплоты dQ, сообщенного системе или отведенного от нее, к термодинамической температуре Т системы. Неравновесные процессы в изолированной системе сопровождаются ростом энтропии, они приближают систему к состоянию равновесия, в котором энтропия максимальна. Понятие «энтропия» было введено в 1865 году Р. Клаузиусом для определения меры необратимого рассеяния энергии в термидинамике. В переводе с греческого языка «энтропия» означает «превращение», «поворот». Р. Клаузиус показал, что процесс превращения теплоты в работу следует общей физической закономерности — второму началу термодинамики. Его можно сформулировать математически, если ввести особую функцию состояния — энтропию.
Понятие энтропии применяется в физике, химии, биологии, теории информации: в статистической физике — как мера вероятности пребывания системы в определенном состоянии (принцип Больцмана); в теории информации как мера неопределенности опыта (испытания), который может иметь разные исходы. Такие трактовки энтропии имеют внутреннюю связь. Например, на основе представлений об информационной энтропии можно вывести положения статистической физики.
Статья находится в рубриках
Яндекс.Метрика