Энтропи́я (обычно обозначается S) — функция состояния термодинамической системы, изменение которой dS в равновесном процессе равно отношению количества теплоты dQ, сообщенного системе или отведенного от нее, к термодинамической температуре Т системы. Неравновесные процессы в изолированной системе сопровождаются ростом энтропии, они приближают систему к состоянию равновесия, в котором энтропия максимальна. Понятие «энтропия» было введено в 1865 году Р. Клаузиусом для определения меры необратимого рассеяния энергии в термидинамике. В переводе с греческого языка «энтропия» означает «превращение», «поворот». Р. Клаузиус показал, что процесс превращения теплоты в работу следует общей физической закономерности — второму началу термодинамики. Его можно сформулировать математически, если ввести особую функцию состояния — энтропию.
Понятие энтропии применяется в физике, химии, биологии, теории информации: в статистической физике — как мера вероятности пребывания системы в определенном состоянии (принцип Больцмана); в теории информации как мера неопределенности опыта (испытания), который может иметь разные исходы. Такие трактовки энтропии имеют внутреннюю связь. Например, на основе представлений об информационной энтропии можно вывести положения статистической физики.