Что такое энтропия. Энтропия в нашей жизни


Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.

Так что же такое энтропия?

Если в двух словах, то

Энтропия - это то, как много информации вам не известно о системе

Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.


Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые - меньшему, но мы этим пренебрежём).

Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей - вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) - макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).


А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти - 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 - 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:

Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.

Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть определённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.

Другими словами, энтропия - это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Физический пример: газ под поршнем

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа - это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.


Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:

хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона - Менделеева pV = νRT - это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывает. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 1023.

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации - мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.

Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, быстро отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Твёрдые тела и потенциальная энергия

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.


Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Понимаем второй закон термодинамики

Второй закон термодинамики утверждает, что энтропия (закрытой системы) всегда увеличивается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.


Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

Перемешивание газов

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого - красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Разбираемся с демоном Максвелла

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача - пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные - справа.

Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?

Решается этот парадокс, однако, очень просто. Ведь энтропия - это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много - чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю - у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе - но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние - и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What"s an intuitive way to understand entropy? , заданный на сайте Quora.

  • Энтропи́я (от др.-греч. ἐντροπία «поворот», «превращение») - широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике.

    Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации. Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией.

    Понятие информационной энтропии применяется как в теории информации и математической статистике, так и в статистической физике (энтропия Гиббса и её упрощённый вариант - энтропия Больцмана). Математический смысл информационной энтропии - это логарифм числа доступных состояний системы (основание логарифма может быть различным, оно определяет единицу измерения энтропии). Такая функция от числа состояний обеспечивает свойство аддитивности энтропии для независимых систем. Причём, если состояния различаются по степени доступности (т. е. не равновероятны), под числом состояний системы нужно понимать их эффективное количество, которое определяется следующим образом. Пусть состояния системы равновероятны и имеют вероятность

    {\displaystyle p}

    Тогда число состояний

    {\displaystyle N=1/p}

    {\displaystyle \log N=\log(1/p)}

    В случае разных вероятностей состояний

    {\displaystyle p_{i}}

    Рассмотрим средневзвешенную величину

    {\displaystyle \log {\overline {N}}=\sum _{i=1}^{N}p_{i}\log(1/p_{i})}

    {\displaystyle {\overline {N}}}

    Эффективное количество состояний. Из данной интерпретации непосредственно вытекает выражение для информационной энтропии Шеннона

    {\displaystyle H=\log {\overline {N}}=-\sum _{i=1}^{N}p_{i}\log p_{i}}

    Подобная интерпретация справедлива и для энтропии Реньи, которая является одним из обобщений понятия информационная энтропия, но в этом случае иначе определяется эффективное количество состояний системы (можно показать, что энтропии Реньи соответствует эффективное количество состояний, определяемое как среднее степенное взвешенное с параметром

    {\displaystyle q\leq 1}

    Энтропия - термин, который используется не только в точных науках, но и в гуманитарных. В общем случае - это мера хаотичности, неупорядоченности некоторой системы.

    Как известно, человечество всегда стремилось к тому, чтобы переложить как можно больше работы на плечи машинам и механизмам, используя для этого как можно меньше ресурсов. Упоминания о вечном двигателе впервые обнаружены в арабских рукописях XVI в. С тех пор было предложено немало конструкций для потенциально вечного двигателя. Вскоре, после множества неудачных экспериментов, ученые поняли некоторые особенности природы, которые впоследствии определили основы термодинамики.

    Рисунок вечного двигателя

    Первое начало термодинамики говорит следующее: для выполнения работы термодинамической системой потребуется либо внутренняя энергия системы, либо внешняя энергия из дополнительных источников. Это утверждение является термодинамическим законом сохранения энергии и запрещает существование вечного двигателя первого рода - системы, совершающей работу без затрачивания энергии. Механизм одного из таких двигателей основывался на внутренней энергии тела, которая может перейти в работу. К примеру, это может происходить за счет расширения. Но человечеству неизвестны тела либо системы, которые могут бесконечно расширяться, а значит рано или поздно их внутренняя энергия закончится и двигатель остановится.

    Несколько позже появился так называемый вечный двигатель второго рода, который не перечил закону сохранения энергии, и основывался на механизме передачи тепла, требуемого для работы, окружающими телами. В пример брали океан, охлаждая который, предположительно, можно было бы получить внушительный запас тепла. Однако, в 1865-м году немецкий ученый, математик и физик Р. Клаузиус определил второе начало термодинамики: «повторяющийся процесс не может существовать, если в результате произойдет лишь передача тепла от менее нагретого тела к более нагретому, и только». Позднее он ввел понятие энтропии — некоторой функции, изменение которой равно отношению количества переданного тепла к температуре.

    После чего альтернативой второму началу термодинамики стал закон неубывания энтропии: «в замкнутой системе энтропия не уменьшается».

    Простыми словами

    Так как энтропия имеет место быть в самых различных областях деятельности человека, ее определение является несколько расплывчатым. Однако на простейших примерах можно понять суть этой величины. Энтропия - это степень беспорядка, другими словами - неопределенности, неупорядоченности. Тогда система из разбросанных клочьев бумаги на улице, которые еще периодически подбрасывает ветер, имеет высокую энтропию. А система из сложенных в стопку бумаг на рабочем столе имеет минимальную энтропию. Чтобы понизить энтропию в системе с клочьями бумаги, Вам придется затратить немало времени и энергии на склеивание клочков бумаги в полноценные листы, и складывание их в стопку.

    В случае с закрытой системой так же все просто. К примеру, Ваши вещи в закрытом шкафу. Если Вы не будете действовать на них извне, то вещи долгое время будут, вроде бы, сохранять свое значение энтропии. Но рано или поздно они разложатся. Например, шерстяной носок будет разлагаться до пяти лет, а вот кожаной обуви потребуется около сорока лет. В описанном случае шкаф - изолированная система, а разложение вещей - переход от упорядоченных структур к хаосу.

    Подводя итоги, следует отметить, что минимальная энтропия наблюдается у разнообразных макроскопических объектов (тех, которые можно наблюдать невооруженным глазом), имеющих определенную структуру, а максимальная — у вакуума.

    Энтропия Вселенной

    В результате возникновения такого понятия как энтропия появилось множество других утверждений и физических определений, которые позволили подробнее описать законы природы. Одним из них есть такое понятие как «обратимые/необратимые процессы». К первым относят процессы, энтропия системы которых не возрастает и остается постоянной. Необратимые - такие процессы, в замкнутой системе которых энтропия растет. Вернуть замкнутую систему в состояние до процесса невозможно, т.к. в таком случае энтропия должна была бы понижаться.

    По мнению Клаузиуса, необратимым процессом является существование Вселенной, в конце которого ее ждет так называемая «Тепловая смерть», иначе - термодинамическое равновесие, существующее для закрытых систем. То есть энтропия достигнет максимального показателя, а все процессы просто затухнут. Но, как вскоре оказалось, Рудольф Клаузиус не учитывал силы гравитации, которые присутствуют повсеместно во Вселенной. К примеру, благодаря ним распределение частиц при максимальной энтропии не обязано быть однородным.

    Также к другим недостаткам теории о «тепловой смерти Вселенной» можно отнести тот факт, что нам неизвестно действительно ли она конечна, и можно ли к ней применить понятие «замкнутая система». Стоит учитывать и то, что состояние максимальной энтропии, как собственно и абсолютный вакуум - такие же теоретические понятия, как и идеальный газ. Это означает, что в реальности энтропия не будет достигать максимального значения, из-за различных случайных отклонений.

    Примечательно то, что видимая в своем объеме сохраняет значение энтропии. Причиной тому служит уже известный для многих феномен - Вселенной. Это интересное совпадение в очередной раз доказывает человечеству то, что в природе ничего не происходит просто так. Согласно подсчетам ученых, по порядку величины значение энтропии равняется количеству существующих фотонов.

    • Словом «хаос» называют изначальное состояние Вселенной. В этот момент она представляла собой лишь не имеющую форму совокупность пространства и материи.
    • Согласно исследованиям одних ученых, наибольшим источником энтропии являются сверхмассивные . Но другие считают, что благодаря мощным гравитационным силам, притягивающим все к массивному телу, мера хаоса передается в окружающее пространство в незначительном количестве.
    • Интересно то, что жизнь и эволюция человека направлены в противоположную сторону от хаоса. Ученые утверждают, что это возможно из-за того, что на протяжении своей жизни человек, как и другие живые организмы, принимает на себя меньшее значение энтропии, нежели отдает в окружающую среду.

    Героиня фильма Вуди Аллена Whatever Works дает такое определение энтропии: это из-за чего тяжело засунуть обратно в тюбик зубную пасту. Она еще интересно объясняет принцип неопределенности Гейзенберга, еще один повод посмотреть фильм.

    Энтропия - это мера беспорядка, хаоса. Вы пригласили друзей на новогоднюю вечеринку, прибрались, помыли пол, разложили на столе закуску, расставили напитки. Одним словом, все упорядочили и устранили столько хаоса, сколько смогли. Это система с маленькой энтропией

    Что такое энтропия простыми словами: определение, в каких областях используется этот термин. Понятные примеры энтропии в жизни.

    Вы все, наверное, представляете, что происходит с квартирой, если вечеринка удалась: полный хаос. Зато у вас утром есть в распоряжении система с большой энтропией.

    Для того, чтобы привести квартиру в порядок, надо прибраться, то есть потратить на это много энергии. Энтропия системы уменьшилась, но никакого противоречия со вторым началом термодинамики нет - вы же добавили энергию извне, и эта система уже не изолированная.

    Один из вариантов конца света - тепловая смерть вселенной вследствие второго начала термодинамики. Энтропия вселенной достигнет своего максимума и ничего в ней больше происходить не будет.

    В общем случае звучит все довольно уныло: в природе все упорядоченные вещи стремятся к разрушению, к хаосу. Но откуда тогда на Земле жизнь? Все живые организмы невероятно сложные и упорядоченные и каким-то образом всю свою жизнь борются с энтропией (хотя в конце концов она всегда побеждает.

    Все очень просто. Живые организмы в процессе жизнедеятельности перераспределяют энтропию вокруг себя, то есть отдают свою энтропию всему, чему только могут. Например, когда мы едим бутерброд, то красивый упорядоченный хлеб с маслом мы превращаем известно во что. Получается, что свою энтропию мы отдали бутерброду, а в общей системе энтропия не уменьшилась.

    А если взять землю в целом, то она вообще не является замкнутой системой: солнце снабжает нас энергией на борьбу с энтропией.

    Энтропия психология.

    Энтропия – способ взаимодействия личности с социальной средой определяется тем, что социальная среда, с одной стороны, и личность – с другой могут включать в себя энтропийные и негэнтропийные тенденции, а их определенное соотношение образует комбинаторно-возможные модусы взаимодействия; их широкий диапазон дает возможность выхода за пределы ограниченного определения личности как стабильной системы, действующей в изменяющихся, условиях среды.

    Если взять инвариантную в нашем концептуальном аппарате ось “личность – социальная среда” и представить её взаимовращение с осью “энтропия-негэнтропия”, заключающей в себе ответ на вопрос “как проходит взаимодействие?”, то в нашем распоряжении четыре исходных варианта:

    1) негэнтропийные тенденции социальной среды;
    2) энтропийные тенденции социальной среды;
    3) негэнтропийные тенденции личности;
    4) энтропийные тенденции личности.

    Необходимо коротко остановиться на описании каждого из них.

    1. Негэнтропийные тенденций социальной среды. Еще Бэкон ставил вопрос, как человек может существовать в условиях социального порядка и, вообще, из чего слагается этот социальный порядок. Большинство современных социологических теорий посвящается выяснению его природы. Применительно к нашей задаче в них описания возможных параметров системы “личность – социальная среда”, достаточно отметить: личность может быть включена в формальные и неформальные отношения, основным качеством которых является повторяемость, четкость и организованность, ритуальность и стереотипность социальных условий – ситуаций индивидуального поведения. Известно, что социум не может эффективно воздействовать на отдельного индивида, включенного в группу, если стратегия социального влияния не будет последовательной, единодушной и консистентной.

    2. Энтропийные тенденции социальной среды. Элементы хаоса и беспорядка, социальная дестабилизация и дезорганизация устройства на тех или иных этапах его развития Э. Дюркгейм даже считал необходимым условием развития общества, наличие в нем определенных элементов дезорганизации. Этот момент, как известно, он подчеркивал в связи с изучением природы социальной аномии и преступности. Не вдаваясь в подробности критического анализа взглядов Э. Дюркгейма, мы хотим подчеркнуть, что энтропийные тенденции особенно наглядно наблюдаются в функционировании малых социальных групп в микросоциальном климате некоторых формальных и неформальных человеческих объединений. Примером может служить пьяная компания, взволнованная толпа во время спортивного зрелища, ситуация в трудовом коллективе при нечетком распределений функций и ролей, случайное сборище людей, не объединенных общей нитью, и т. д.

    3. Негэнтропийные тенденции личности. Имеется в виду консистентность взглядов и установок личности; её последовательность и организованность в действиях. Представляется излишним детальное рассмотрение механизмов обеспечения и достижения стабильности, консистентности организованности в жизнедеятельности личности, ибо этот вопрос широко обсуждается в психологической литературе и его изучению посвящены многочисленные работы. Можно лишь подчеркнуть, что ученики и последователи Д. Н. Узнадзе механизм стабильности индивидуального поведения и характерологических черт, мировосприятия и убеждений связывают с фиксацией установки, с определенной организацией фиксированных установок, их системным строением и внутренней, тенденцией к консолидации и совместимости.

    4. Энтропийные тенденции личности. Поведенческие диссоциации, дезорганизованность, непоследовательность в поступках и убеждениях, эмоциональная неустойчивость являются проявлениями внутреннего хаоса и энтропийных тенденций личности. Не подлежит сомнению, что предельное состояние роста энтропии свойственно патологии, однако было бы неверно таким образом упрощать вопрос, якобы рост энтропии связан с патологией, а рост негэнтропии с психическим здоровьем. Более того, при многих невротических нарушениях отмечается сверхорганизованность, доведенная до патологических форм ритуализации и, напротив, у практически здоровых лиц в определенных условиях может наблюдаться рост энтропийных тенденций. Это хорошо демонстрируется в известных опытах Л. Фестингера, Т. Ньюкомба и А. Пепитона, Ф. Г. Зимбардо в связи с изучением феномена деиндивидуации, о котором частично уже шла речь. Дело в том, что одним из показателей деиндивидуации, согласно этим заторам, является импульсивность и деструктивность поведения, понижение самоконтроля, хаотичность поведения и дезорганизация внутриличностных состояний. Ф. Г. Зимбардо лаконично и четко сформулировал борьбу двух моментов – хаоса и порядка – в человеческом существовании: “В вечной борьбе порядка и хаоса, мы надеемся на триумф индивидуации, однако таинственно мы в заговоре с внутренними силами, исходящих из неподвластных недр деиндивидуации”.

    Энтропия философия.

    ЭНТРОПИЯ (от греч. entropia – поворот, превращение) – часть внутренней энергии замкнутой системы или энергетической совокупности Вселенной, которая не может быть использована, в частности не может перейти или быть преобразована в механическую работу. Точное определение энтропии производится с помощью математических расчетов. Наиболее отчетливо эффект энтропии виден на примере термодинамических процессов. Так, тепло никогда совершенно не переходит в механическую работу, преобразуясь в др. виды энергии. Примечательно, что при обратимых процессах величина энтропии остается неизменной, при необратимых, наоборот, неуклонно возрастает, причем этот прирост происходит за счет уменьшения механической энергии. Следовательно, все то множество необратимых процессов, которые происходят в природе, сопровождается уменьшением механической энергии, что в конечном итоге должно привести к всеобщему параличу, или, говоря иначе, «тепловой смерти». Но такой вывод правомочен лишь в случае постулирования тоталитарности Вселенной как замкнутой эмпирической данности. Христ. теологи, основываясь на энтропии, говорили о конечности мира, используя ее как доказательство существования Бога.

    Энтропия растет. Энтропия растёт в изолированных системах?

    Пять мифов о развитии и энтропии. Миф третий.
    Храним мы под замком надёжным деньги, продукты прячем от тепла во льду.
    Но человеку жить в уединенье и взаперти совсем невмоготу.
    Второе начало термодинамики утверждает, что энтропия в изолированной системе не убывает, то есть сохраняется или растёт. А может ли она расти вне изолированной системы?
    Сразу заметим, что термин «система» в формулировке второго начала используется лишь для краткости. Под ним понимается любое множество элементов, тогда как система включает связи между ними и предполагает некоторую целостность. И связи, и целостность могут лишь замедлять рост энтропии, исключая некоторые (возможно, нежелательные для системы) состояния. Ни в каких других отношениях системность для второго начала не важна.
    Требование изолированности возникает из-за того, что из открытой системы энтропия может экспортироваться и рассеиваться в окружающей среде. Но, после того, как изолированное множество элементов уравновесилось, пришло в наиболее вероятное макросостояние, энтропия, достигнув максимума, далее расти не может.
    Рост энтропии возможен лишь при наличии какой-либо неравновесности, которая не возникнет, пока не возобновится приток энергии извне или отток её наружу. Недаром мы помещаем вещи в изолированные хранилища – это препятствует внешним воздействиям, способствующим возникновению неравновесности и дальнейшему росту энтропии. Поэтому изолированность, как и системность, не способствует росту энтропии, а лишь гарантирует её неубывание. Именно вне изолированной системы, в открытой среде, преимущественно и происходит рост энтропии.
    Хотя классическая формулировка второго начала не говорит, как изменяется энтропия в открытых системах и средах, это не является большой проблемой. Достаточно мысленно отделить участок среды или группу открытых систем, участвующих в процессе и не испытывающих внешних воздействий и считать их единой изолированной системой. Тогда их суммарная энтропия не должна убывать. Так рассуждали, к примеру, У. Эшби, оценивая воздействие одной системы на другую, и И. Пригожин при рассмотрении диссипативных структур.
    Хуже то, что большой класс процессов, в которых энтропия растёт, а именно процессов накопления нарушений в системах под влиянием внешних сил, как бы выходит из-под действия второго начала – ведь они не могут идти в изолированных системах!
    Поэтому лучше было бы сформулировать закон так: любой самопроизвольный процесс преобразования энергии, массы, информации не уменьшает общей энтропии всех связанных с ним систем и частей среды. В такой формулировке снимается избыточное требование системности, изолированность обеспечивается учётом всех участвующих в процессе элементов и утверждается справедливость закона для всех самопроизвольных процессов.

    Энтропия простыми словами. Что такое энтропия простыми словами

    Чаще всего слово «энтропия» встречается, конечно же, в классической физике. Это одно из самых сложных понятий данной науки, поэтому даже студенты физических вузов нередко сталкиваются с проблемами при восприятии данного термина. Это, безусловно, физический показатель, однако важно понять один факт – энтропия не похожа на привычные нам понятия объема, массы или давления, потому что энтропия является именно свойством определенной рассматриваемой нами материи.

    Говоря простым языком, энтропия – показатель того, насколько много информации об определенном предмете нам неизвестно. Ну, например, на вопрос, где я живу, я отвечу вам – в Москве. Это вполне конкретная координата – столица Российской Федерации – однако, Москва город немаленький, поэтому вам всё еще остается неизвестной точная информация о моем местоположении. А вот когда я назову вам свой, например, почтовый индекс, то энтропия обо мне, как предмете, понизится.

    Это не совсем точная аналогия, поэтому для уточнения приведем ещё один пример. Допустим, мы с вами возьмем десять игральных шестигранных кубиков. Бросим их все по очереди, а затем я сообщу вам сумму выпавших показателей – тридцать. Исходя из суммы всех результатов, вы не сможете точно сказать, какая цифра и на каком кубике выпала – вам банально не хватает для этого данных. В нашем случае каждая выпавшая цифра на языке физиков будет называться микросостоянием, а сумма, равная тридцати, на всё том же физическом наречии будет именоваться макросостоянием. Если мы посчитаем, сколько возможных микросостояний могут нам в сумме дать три десятка, то придем к выводу, что их количество достигает почти трёх миллионов значений. Используя специальную формулу, мы можем посчитать и показатель энтропии в данном вероятностном эксперименте – шесть с половиной. Откуда взялась половина, возможно, спросите вы? Эта дробная часть появляется из-за того, что при нумерации в седьмом порядке мы можем оперировать лишь тремя числами – 0, 1 и 2.

    Энтропия в биологии. Энтропия (значения)

    Энтропи́я:

    • Энтропия - мера необратимого рассеивания энергии, мера отклонения реального процесса от идеального.
    • Термодинамическая энтропия - функция состояния термодинамической системы
    • Энтропия (биология) - в биологической экологии единица измерения биологической вариативности.
    • Информационная энтропия - мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита.
    • Энтропия - децентрализованная компьютерная сеть коммуникаций peer-to-peer, разработанная с целью быть стойкой к сетевой цензуре.
    • Топологическая энтропия
    • Метрическая энтропия
    • Энтропия динамической системы
    • Дифференциальная энтропия
    • Энтропия языка - статистическая функция текста на определённом языке, либо самого языка, определяющая количество информации на единицу текста.
    • Энтропия (журнал) - международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.
    • « Энтропия » - художественный фильм Марии Саакян 2012 года.
    • Энтропия (настольная игра) (англ. Entropy) - настольная игра 1977 года от Eric Solomon и 1994 года от Августина Каррено.

    Видео Об энтропии

    Энтропия примеры. Введение

    Энтропия

    В словаре иностранных слов встречается следующее определение энтропии: энтропия - 1) в физике - одна из величин, характеризующих тепловое состояние тела или системы тел; мера внутренней неупорядоченности системы; при всех процессах, происходящих в замкнутой системе, энтропия или возрастает (необратимые процессы) или остается постоянной (обратимые процессы); 2) в теории информации - мера неопределенности ситуации (случайной величины) с конечным или четным числом исходов, например, опыт, до проведения которого результат в точности неизвестен.

    Понятие энтропии впервые было введено в науку Клаузиусом в 1865 г. как логическое развитие термодинамики Карно.

    Но я характеризую это понятие как мера хаоса. По моему мнению, это самое оптимальная тема на данный момент потому, что она полностью связана с жизнью. Энтропия находится во всем. В природе, в человеке, в различных науках. Даже зарождение человека в утробе матери начинается с хаоса. Энтропию также можно связать с образованием планеты, так как до появления Бога на Земле все природные явления и все, что было на планете, находилось в высокой степени энтропии. Но по истечению семи дней, планета приобрела упорядоченный вид, то есть все встало на свои места.

    Основываясь на моих выводах, я бы хотела подробнее разобрать это явление и так сказать снизить энтропии понимания этого явления.

    Величина Формула расчета Значение
    Полная энтропия видимой части S{\displaystyle S} 4π3sγlH03{\displaystyle {\frac {4\pi }{3}}s_{\gamma }l_{H_{0}}^{3}} ∼1088{\displaystyle \sim 10^{88}}
    Удельная энтропия фотонного газа sγ{\displaystyle s_{\gamma }} 8π290T03{\displaystyle {\frac {8\pi ^{2}}{90}}T_{0}^{3}} ≈1.5103{\displaystyle \approx 1.510^{3}} см-3

    Энтропия Вселенной - величина, характеризующая степень неупорядоченности и тепловое состояние Вселенной. Классическое определение энтропии и способ её вычисления не подходят для Вселенной, так как в оной действуют силы гравитации, и вещество само по себе не образует замкнутой системы. Однако можно доказать, что в сопутствующем объёме полная энтропия сохраняется.

    В сравнительно медленно расширяющейся Вселенной энтропия в сопутствующем объёме сохраняется, а по порядку величины энтропия равна числу фотонов.

    Закон сохранения энтропии во Вселенной

    В общем случае, приращение внутренней энергии имеет вид:

    Учтем, что химический потенциал частиц равны по значению и противоположны по знаку:

    Если считать расширение равновесным процессом, то последние выражение можно применить к сопутствующему объёму (V∝a3{\displaystyle V\propto a^{3}} , где a{\displaystyle a} - «радиус» Вселенной). Однако, в сопутствующем объёме разница частиц и античастиц сохраняется. Учитывая этот факт, имеем:

    Но причиной изменения объёма является расширение. Если теперь, учитывая это обстоятельство, продифференцировать по времени последнее выражение:

    Теперь, если подставить уравнение неразрывности, входящую в систему:

    Последнее означает, что энтропия в сопутствующем объёме сохраняется.

    Коронация Фридриха в кирхе Кёнигсбергского замка

    Фридрих, сын курфюрста Бранденбургского Фридриха Вильгельма, прозванного Великим курфюрстом, родился в Кёнигсберге 11 июля 1657 года от первой жены своего отца - Луизы-Генриетты. Смерть старшего брата, Карла-Эмиля в 1674 году, открыла ему путь к короне.

    Слабый здоровьем, бесхарактерный, легко поддававшийся влияниям, он был склонен к пышности и блеску. Поразительное различие между ним и отцом его отмечено всеми историками - различие в характере, воззрениях и стремлениях. Лавис метко называет Фридриха блудным сыном в семье скупцов. Наряду со страстью к роскоши стояло поклонение Фридриха III всему французскому. В «Deutsch-französische Modegeist» 1689 года говорится: «Теперь все должно быть французским: французский язык, французская одежда, французская кухня, посуда, французские танцы, французская музыка и французская болезнь. Гордый, лживый, развратный французский дух совершенно усыпил немцев». На содержание двора тратилось в год до 820 000 талеров, то есть всего на 10 000 талеров меньше, чем на содержание всего гражданского управления государства. Фридрих II характеризовал своего деда словами: «Великий в малых делах и малый в великих».

    Наиболее эффективным циклом теплового двигателя является тепловой цикл Карно. Он состоит из двух изотермических и двух адиабатических процессов. Второе начало термодинамики устанавливает, что не вся поставляемая в тепловой двигатель теплота может быть использована для выполнения работы. КПД такого двигателя, реализующего цикл Карно, дает предельное значение той части ее, которая может быть использована для этих целей.

    Несколько слов об обратимости физических процессов

    Физический (а в узком смысле термодинамический) процесс в некоторой системе тел (включающей твердые тела, жидкости, газы) является обратимым, если после того, как он был осуществлен, можно восстановить состояние, в котором система находилась до его начала. Если она не может вернуться в исходное состояние в конце процесса, то он является необратимым.

    Обратимые процессы не встречаются в природе. Это идеализированная модель реальности, своеобразный инструмент ее исследования в физике. Примером такого процесса является цикл Карно. Идеальная тепловая машина - это модель реальной системы, реализующая процесс, носящий имя французского физика Сади Карно, который его впервые описал.

    Что вызывает необратимость процессов?

    Факторы, которые приводят к ней, включают в себя:

    • тепловые потоки от источника тепла к потребителю при конечной разности температур между ними;
    • неограниченное расширение газа;
    • смешивание двух газов;
    • трение;
    • прохождение электрического тока через сопротивление;
    • неупругая деформация;
    • химические реакции.

    Процесс необратим, если в наличии любой из этих факторов. Идеальный цикл Карно является обратимым процессом.

    Внутренне и внешне обратимые процессы

    Когда процесс осуществляется, факторы его необратимости могут находиться в рамках самой системы тел, а также в ее окрестности. Он называется внутренне обратимым, если система может быть восстановлена в то же самое состояние равновесия, в котором она находилась в его начале. При этом внутри нее не может быть факторов необратимости, пока длится рассматриваемый процесс.

    Если факторы необратимости отсутствуют за пределами границ системы в процессе, то он называется внешне обратимым.

    Процесс называется обратимым полностью, если он и внутренне, и внешне обратим.

    Что такое цикл Карно?

    В этом процессе, реализуемом идеальным тепловым двигателем, рабочее тело - нагретый газ - выполняет механическую работу за счет теплоты, получаемой из высокотемпературного теплового резервуара (нагревателя), а также отдает теплоту низкотемпературному тепловому резервуару (холодильнику).

    Цикл Карно является одним из самых известных обратимых циклов. Он состоит из четырех обратимых процессов. И хотя подобные циклы недостижимы на практике, но они задают верхние пределы производительности реальных циклов. В теории показано, что данный прямой цикл осуществляет с предельно возможной эффективностью преобразование тепловой энергии (теплоты) в механическую работу.

    Как идеальный газ совершает цикл Карно?

    Рассмотрим идеальный тепловой двигатель, содержащий цилиндр с газом и поршнем. Четырьмя обратимыми процессами цикла работы такой машины являются:

    1. Обратимое изотермическое расширение. В начале процесса газ в цилиндре имеет температуру T H. Через стенки цилиндра он контактирует с нагревателем, имеющим с газом бесконечно малую разность температур. Следовательно, соответствующий фактор необратимости в виде конечной разности температур отсутствует, и имеет место обратимый процесс теплопередачи от нагревателя к рабочему телу - газу. Его внутренняя энергия растет, он расширяется медленно, выполняя при этом работу по перемещению поршня и оставаясь при постоянной температуре T H . Общее количество теплоты, передаваемой газу нагревателем во время этого процесса, равно Q H, однако только часть ее в дальнейшем преобразуется в работу.

    2. Обратимое адиабатическое расширение. Нагреватель удаляют, и газ, совершающий цикл Карно, медленно расширяется далее адиабатическим образом (с неизменной энтропией) без теплообмена через стенки цилиндра или поршень. Его работа по перемещению поршня приводит к уменьшению внутренней энергии, что выражается в снижении температуры от T H до T L . Если предположить, что поршень движется без трения, то процесс является обратимым.

    3. Обратимое изотермическое сжатие. Цилиндр приводится в контакт с холодильником, имеющим температуру Т L . Поршень начинает толкать обратно внешняя сила, выполняющая работу по сжатию газа. При этом его температура остается равной Т L, а процесс, включающий теплопередачу от газа к холодильнику и сжатие, остается обратимым. Общее количество теплоты, отводимой от газа в холодильник, равно Q L .

    4. Обратимое адиабатическое сжатие. Холодильник удаляется, и газ медленно сжимается далее адиабатическим образом (при постоянной энтропии). Его температура поднимается от T L до Т Н. Газ возвращается в исходное состояние, что завершает цикл.

    Принципы Карно

    Если процессы, которые составляют цикл Карно тепловой машины, являются обратимыми, то она носит наименование обратимой тепловой машины. В противном случае имеем ее необратимый вариант. На практике все тепловые двигатели являются таковыми, поскольку обратимых процессов не существует в природе.

    Карно сформулировал принципы, являющиеся следствием второго начала термодинамики. Они выражаются следующим образом:

    1. КПД необратимого теплового двигателя всегда меньше, чем у обратимого, работающего от тех же двух тепловых резервуаров.

    2. КПД всех обратимых тепловых двигателей, работающих от тех же двух тепловых резервуаров, являются одинаковыми.

    То есть КПД обратимой тепловой машины не зависит от используемого рабочего тела, его свойств, длительности цикла работы и типа теплового двигателя. Он является функцией только температуры резервуаров:

    где Q L - теплота, передаваемая низкотемпературному резервуару, который имеет температуру T L; Q H - теплота, передаваемая от высокотемпературного резервуара, который имеет температуру Т H; g, F - любые функции.

    Тепловой двигатель Карно

    Им называется такая тепловая машина, которая работает на обратимом цикле Карно. Тепловой КПД любой тепловой машины, обратимой или нет, определяется как

    η th = 1 - Q L /Q H,

    где Q L и Q H являются количествами теплоты, передаваемыми в цикле низкотемпературному резервуару при температуре Т L и от высокотемпературного резервуара при температуре Т Н соответственно. Для обратимых тепловых машин тепловой КПД может быть выражен через абсолютные температуры этих двух резервуаров:

    η th = 1 - T L /T H.

    КПД теплового двигателя Карно является самым высоким КПД, которого может достигать тепловой двигатель, работая между высокотемпературным резервуаром при температуре Т Н и низкотемпературным резервуаром при температуре Т L . Все необратимые тепловые двигатели, работающие между теми же двумя резервуарами, имеют более низкий КПД.

    Обратный процесс

    Рассматриваемый цикл является полностью обратимым. Его холодильный вариант может быть достигнут, если реверсировать все процессы, входящие в него. При этом работа цикла Карно используется для создания разности температур, т.е. тепловой энергии. Во время обратного цикла количество теплоты Q L газ получает из низкотемпературного резервуара, а количество теплоты Q H отдается им в высокотемпературный тепловой резервуар. Энергия W net,in требуется, чтобы выполнить цикл. Она равна площади фигуры, ограниченной двумя изотермами и двумя адиабатами. PV-диаграммы прямого и обратного цикла Карно показаны на рисунке ниже.

    Холодильник и тепловой насос

    Холодильник или тепловой насос, реализующий обратный цикл Карно, называется холодильником Карно или тепловым насосом Карно.

    КПД обратимого или необратимого холодильника (η R) или теплового насоса (η HP) определяется как:

    где Q Н - количество теплоты, отводимое в высокотемпературной резервуар;
    Q L - количество тепла, получаемое из низкотемпературного резервуара.

    Для обратимых холодильников или тепловых насосов, таких как холодильники Карно или тепловые насосы Карно, КПД может быть выражен через абсолютные температуры:

    где Т Н = абсолютная температура в высокотемпературном резервуаре;
    T L = абсолютная температура в низкотемпературном резервуаре.

    η R (или η HP) являются самыми высокими КПД холодильника (или теплового насоса), которые они могут достигать, работая между высокотемпературным резервуаром при температуре T H и низкотемпературным резервуаром при температуре Т L . Все необратимые холодильники или тепловые насосы, работающие между теми же двумя резервуарами, имеют более низкие КПД.

    Бытовой холодильник

    Основная идея домашнего холодильника проста: он использует испарение хладагента для поглощения тепла от охлаждаемого пространства в холодильнике. Есть четыре основные части в любом холодильнике:

    • Компрессор.
    • Трубчатый радиатор вне холодильника.
    • Расширительный клапан.
    • Теплообменные трубы внутри холодильника.

    Обратный цикл Карно при работы холодильника выполняется в следующем порядке:

    • Адиабатическое сжатие. Компрессор сжимает пары хладагента, повышая их температуру и давление.
    • Изотермическое сжатие. Высокотемпературный и сжатый компрессором пар хладагента рассеивает тепло в окружающую среду (высокотемпературный резервуар) при протекании через радиатор вне холодильника. Пары хладагента конденсируются (сжимаются) в жидкую фазу.
    • Адиабатическое расширение. Жидкий хладагент протекает через расширительный клапан, чтобы уменьшить его давление.
    • Изотермическое расширение. Холодный жидкий хладагент испаряется, когда он проходит через теплообменные трубы внутри холодильника. В процессе испарения его внутренняя энергия растет, и этот рост обеспечивается отбором тепла от внутреннего пространства холодильника (низкотемпературный резервуар), в результате чего оно охлаждается. Затем газ поступает в компрессор для сжатия снова. Обратный цикл Карно повторяется.

    Сингулярность. Комментарии

    «Теории и практики» - это сайт о современных знаниях. Использование материалов T&P разрешено только с предварительного согласия правообладателей. Все права на картинки и тексты принадлежат их авторам. Сайт может содержать контент, не предназначенный для лиц младше 16 лет.

    • О проекте
    • Карта сайта
    • Контакты
    • Задать вопрос
    • Условия обслуживания
    • Конфиденциальность
    • Спецпроекты
      • Фэйсбук
      • Вконтакте
      • Твиттер
      • Телеграм

      Подпишитесь на T&P

      Мы будем присылать вам самые важные материалы и подборки T&P. Коротко и без спама.

      Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь c политикой конфиденциальности.

    См. также «Физический портал »

    Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации . Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией .

    H = log ⁡ N ¯ = − ∑ i = 1 N p i log ⁡ p i . {\displaystyle H=\log {\overline {N}}=-\sum _{i=1}^{N}p_{i}\log p_{i}.}

    Подобная интерпретация справедлива и для энтропии Реньи , которая является одним из обобщений понятия информационная энтропия , но в этом случае иначе определяется эффективное количество состояний системы (можно показать, что энтропии Реньи соответствует эффективное количество состояний, определяемое как среднее степенное взвешенное с параметром q ≤ 1 {\displaystyle q\leq 1} от величин 1 / p i {\displaystyle 1/p_{i}} ) .

    Следует заметить, что интерпретация формулы Шеннона на основе взвешенного среднего не является её обоснованием. Строгий вывод этой формулы может быть получен из комбинаторных соображений с помощью асимптотической формулы Стирлинга и заключается в том, что комбинаторность распределения (то есть число способов, которыми оно может быть реализовано) после взятия логарифма и нормировки в пределе совпадает с выражением для энтропии в виде, предложенном Шенноном .

    В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности или хаотичности системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.

    1 . Пусть некоторая система может пребывать в каждом из N {\displaystyle N} доступных состояний с вероятностью p i {\displaystyle p_{i}} , где i = 1 , . . . , N {\displaystyle i=1,...,N} . Энтропия H {\displaystyle H} является функцией только вероятностей P = (p 1 , . . . , p N) {\displaystyle P=(p_{1},...,p_{N})} : H = H (P) {\displaystyle H=H(P)} . 2 . Для любой системы P {\displaystyle P} справедливо H (P) ≤ H (P u n i f) {\displaystyle H(P)\leq H(P_{unif})} , где P u n i f {\displaystyle P_{unif}} - система с равномерным распределением вероятностей: p 1 = p 2 = . . . = p N = 1 / N {\displaystyle p_{1}=p_{2}=...=p_{N}=1/N} . 3 . Если добавить в систему состояние p N + 1 = 0 {\displaystyle p_{N+1}=0} , то энтропия системы не изменится. 4 . Энтропия совокупности двух систем P {\displaystyle P} и Q {\displaystyle Q} имеет вид H (P Q) = H (P) + H (Q / P) {\displaystyle H(PQ)=H(P)+H(Q/P)} , где H (Q / P) {\displaystyle H(Q/P)} - средняя по ансамблю P {\displaystyle P} условная энтропия Q {\displaystyle Q} .

    Указанный набор аксиом однозначно приводит к формуле для энтропии Шеннона.

    Употребление в различных дисциплинах

    • Термодинамическая энтропия - термодинамическая функция, характеризующая меру необратимой диссипации энергии в ней.
    • В статистической физике - характеризует вероятность осуществления некоторого макроскопического состояния системы.
    • В математической статистике - мера неопределённости распределения вероятностей .
    • Информационная энтропия - в теории информации мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче.
    • Энтропия динамической системы - в теории динамических систем мера хаотичности в поведении траекторий системы.
    • Дифференциальная энтропия - формальное обобщение понятия энтропии для непрерывных распределений.
    • Энтропия отражения - часть информации о дискретной системе, которая не воспроизводится при отражении системы через совокупность своих частей.
    • Энтропия в теории управления - мера неопределённости состояния или поведения системы в данных условиях.

    В термодинамике

    Понятие энтропии впервые было введено Клаузиусом в термодинамике в 1865 году для определения меры необратимого рассеивания энергии , меры отклонения реального процесса от идеального. Определённая как сумма приведённых теплот, она является функцией состояния и остаётся постоянной при замкнутых обратимых процессах , тогда как в необратимых - её изменение всегда положительно.

    Математически энтропия определяется как функция состояния системы, определённая с точностью до произвольной постоянной. Разность энтропий в двух равновесных состояниях 1 и 2, по определению, равна приведённому количеству тепла ( δ Q / T {\displaystyle \delta Q/T} ), которое надо сообщить системе, чтобы перевести её из состояния 1 в состояние 2 по любому квазистатическому пути :

    Δ S 1 → 2 = S 2 − S 1 = ∫ 1 → 2 δ Q T {\displaystyle \Delta S_{1\to 2}=S_{2}-S_{1}=\int \limits _{1\to 2}{\frac {\delta Q}{T}}} . (1)

    Так как энтропия определена с точностью до произвольной постоянной, то можно условно принять состояние 1 за начальное и положить S 1 = 0 {\displaystyle S_{1}=0} . Тогда

    S = ∫ δ Q T {\displaystyle S=\int {\frac {\delta Q}{T}}} , (2.)

    Здесь интеграл берется для произвольного квазистатического процесса . Дифференциал функции S {\displaystyle S} имеет вид

    d S = δ Q T {\displaystyle dS={\frac {\delta Q}{T}}} . (3)

    Энтропия устанавливает связь между макро- и микро- состояниями. Особенность данной характеристики заключается в том, что это единственная функция в физике, которая показывает направленность процессов. Поскольку энтропия является функцией состояния, то она не зависит от того, как осуществлён переход из одного состояния системы в другое, а определяется только начальным и конечным состояниями системы.