ЭНТРОПИЯ


(от греч. entropia — поворот, превращение), понятие, впервые введённое в термодинамике для определения меры необратимого рассеяния энергии. Э. широко применяется и в др. областях науки: в статистической физике как мера вероятности осуществления к.-л. макроскопич. состояния; в теории информации как мера неопределённости к.-л. опыта (испытания), к-рый может иметь разные исходы. Эти трактовки Э. имеют глубокую внутр. связь. Напр., на основе представлений об информац. Э. можно вывести все важнейшие положения статистич. физики.
В термодинамике понятие «Э.» было введено нем. физиком Р. Клаузиусом (1865), к-рый показал, что процесс превращения теплоты в работу подчиняется определ. физ. закономерности — второму началу термодинамики, к-рое можно сформулировать строго математически, если ввести особую ф-цию состояния —Э. Так, для термодинамич. системы, совершающей квазистатически (бесконечно медленно) циклич. процесс, в к-ром система последовательно получает малые кол-ва теплоты dQ при соответствующих значениях абс. темп-ры Т, интеграл от «приведённого» кол-ва теплоты dQ/T по всему циклу равен нулю
ЭНТРОПИЯ фото №1
=0 — т. н. равенство Клаузиуса). Это равенство, эквивалентное второму началу термодинамики для равновесных процессов, Клаузиус получил, рассматривая произвольный циклич. процесс как сумму очень большого (в пределе бесконечно большого) числа элементарных Карно циклов. Математически равенство Клаузиуса необходимо и достаточно для того, чтобы выражение
dS=dQ/T (1)
представляло собой полный дифференциал ф-ции состояния S, назв.«Э.» (дифф. определение Э.). Разность Э. системы в двух произвольных состояниях А и В (заданных, напр., значениями темп-р и объёмов) равна:
SB-SA=?BAdQ/T (2)
(интегр. определение Э.). Интегрирование здесь ведётся вдоль пути любого квазистатич. процесса, связывающего состояния А и В, при этом, согласно равенству Клаузиуса, приращение Э. DS=SB-SA не зависит от пути интегрирования. Т. о., из второго начала термодинамики следует, что существует однозначная ф-ция состояния S, к-рая при квазистатич. адиабатич. процессах (dQ=0) остаётся постоянной. Процессы, в к-рых Э. остаётся постоянной, наз. изоэнтропийными. Примером может служить процесс, широко используемый для получения низких темп-р,— адиабатич. размагничивание (см. МАГНИТНОЕ ОХЛАЖДЕНИЕ). При изотермич. процессах изменение Э. равно отношению сообщённой системе теплоты к абс. темпре. Напр., изменение Э. при испарении жидкости равно отношению теплоты испарения к темп-ре испарения при условии равновесия жидкости с её насыщ. паром.
Согласно первому началу термодинамики, dQ=dU+pdV, т. е. сообщаемое системе кол-во теплоты равно сумме приращения внутренней энергии dU и совершаемой системой элем. работы pdV, где р — давление, V -объём системы. С учётом первого начала термодинамики дифф. определение Э. принимает вид:
dS =1/T(dU+pdV), (3)
откуда следует, что Э. представляет собой потенциал термодинамический при выборе в кач-ве независимых переменных внутр. энергии U и объёма V. Частные производные Э. связаны с Т и р соотношениями:
1/T=(дS/дU (4) и p/T-=(дS/дV)U (5) к-рые определяют уравнения состояния системы (первое — калорическое, второе — термическое). Ур-ние (4) лежит в основе определения абсолютной температуры (см. ТЕМПЕРАТУРА, ТЕМПЕРАТУРНЫЕ ШКАЛЫ).
Ф-ла (2) определяет Э. лишь с точностью до аддитивной постоянной (т. е. оставляет начало отсчёта Э. произвольным). Абс. значение Э. можно установить с помощью третьего начала термодинамики, основываясь на к-ром, за нач. точку отсчёта Э. принимают S0=0 при Т=0.
Важность понятия Э. для анализа необратимых (неравновесных) процессов также была показана впервые Клаузиусом. Для необратимых процессов интеграл от приведённой теплоты dQ/T по замкнутому пути всегда отрицателен.
ЭНТРОПИЯ фото №2
Клаузиуса неравенство. Это неравенство — следствие теоремы Карно: кпд частично или полностью необратимого циклич. процесса всегда меньше, чем кпд обратимого цикла. Из неравенства Клаузиуса вытекает, что
ЭНТРОПИЯ фото №3
поэтому Э. адиабатически изолированной системы при необратимых процессах может только возрастать.
Т. о., О. определяет хар-р процессов в адиабатич. условиях: возможны только такие процессы, при к-рых Э. либо остаётся неизменной (обратимые процессы), либо возрастает (необратимые процессы). При этом не обязательно, чтобы возрастала Э. каждого из тел, участвующих в процессе. Увеличивается общая сумма Э. тел, в к-рых процесс вызвал изменения.
Термодинамич. равновесию адиабатич. системы соответствует состояние с максимумом Э. Энтропия может иметь не один, а неск. максимумов, при этом система будет иметь неск. состояний равновесия. Равновесие, к-рому соответствует наибольший максимум Э., наз. абсолютно устойчивым (стабильным). Из условия максимальности Э. адиабатич. системы в состоянии равновесия вытекает важное следствие: темп-ра всех частей системы в состоянии равновесия одинакова.
Понятие Э. применимо и к термодинамически неравновесным состояниям, если отклонения от термодинамики равновесия невелики и можно ввести представление о локальном термодинамическом равновесии в малых, но ещё макроскопич. объёмах. В целом Э. неравновесной системы равна сумме Э. её частей, находящихся в локальном равновесии.
Термодинамика неравновесных процессов позволяет более детально исследовать процесс возрастания Э. и вычислить кол-во Э., образующейся в ед. объёма в ед. времени вследствие отклонения от термодинамич. равновесия,— производство энтропии.
Статистич. физика связывает Э. с вероятностью осуществления данного макроскопич. состояния системы. Э. определяется через логарифм статистического веса W данного равновесного состояния:
S=klnW(?, N), (7)
где W(?, N)—число квантовомеханич. уровней в узком интервале энергии D? вблизи значения энергии ? системы из N ч-ц, в классич. статистич. физике W — величина объёма в фазовом пространстве системы при заданных ? и N. Впервые связь Э. с вероятностью состояния системы была установлена австр. физиком Л. Больцманом в 1872: возрастание Э. системы обусловлено её переходом из менее вероятного состояния в более вероятное. Иными словами, эволюция замкнутой системы осуществляется в направлении наиболее вероятного распределения энергии по отд. подсистемам.
В отличие от термодинамики, статистич. физика рассматривает особый класс процессов — флуктуации, при к-рых система переходит из более вероятного состояния в менее вероятное, и её Э. уменьшается. Наличие флуктуации показывает, что закон возрастания Э. выполняется только в ср. для большого промежутка времени.
Э. в статистич. физике тесно связана с информац. Э., к-рая служит мерой неопределённости сообщений (сообщения описываются множеством величин x1, х2, . . ., хn и вероятностей Р1, Р2,. . .,Рn появления этих величин в сообщении). Для определённого (дискретного) статистич. распределения вероятностей Рk информац. Э. называют величину
Hи=-Snk=1РkInPk при Snk=1Pk=1.(8)
Ни=0, если к.-л. из Рk равно 1, а ост.— нулю, т. е. информация достоверна, неопределённость отсутствует. Э. принимает наибольшее значение, когда все Pk одинаковы (неопределённость в информации максимальна). Информац. Э., как и термодинамическая, обладает св-вом аддитивности (Э. неск. сообщений равна сумме Э. отд. сообщений). Из вероятностной трактовки информац. Э. могут быть выведены осн. распределения статистич. физики: каноническое Гиббса распределение, к-рое соответствует макс. значению информац. Э. при заданной ср. энергии, и большое канонич. распределение Гиббса — при заданных ср. энергии и числе ч-ц в системе.

Физический энциклопедический словарь. — М.: Советская энциклопедия..1983.

ЭНТРОПИЯ

(от греч. entropia-поворот, превращение)- понятие, впервые введённое в термодинамике для определения меры необратимого рассеяния энергии. В статистической физике Э. служит мерой вероятности осуществления к.-л. макроскопич. состояния, в теории информации- мерой неопределённости к.-л. опыта (испытания), к-рый может иметь разл. исходы. Эти трактовки Э. имеют глубокую внутр. связь. Напр., на основе представлений об информационной энтропии можно вывести все равновесные статистич. распределения (см. Гиббса распределения).

Энтропия в термодинамике была введена Р. Клаузиусом (R. Clausius, 1865) на основе второго начала термодинамики, к-рое можно сформулировать математически в виде Клаузиуса неравенстваЭНТРОПИЯ фото №4 . Интеграл берётся по замкнутому циклич. процессу, при к-ром система получает (или у неё отбирают) малые количества теплоты dQ при соответствующих значениях абс. темп-ры Т. Знак равенства относится к обратимым процессам (р а в е н с т в о К л а у з и у с а). Из равенства Клаузиуса следует, что для обратимого процесса

ЭНТРОПИЯ фото №5

есть полный дифференциал ф-ции состояния S, называемый Э. (дифференциальное определение Э.). Разность Э. системы в двух произвольных состояниях А и В (заданных, напр., значениями темп-р и объёмов) равна

ЭНТРОПИЯ фото №6

(интегральное определение Э.). Интегрирование здесь ведётся вдоль пути любого квазистатич. обратимого процесса, связывающего состояния А и В. Т. о., из второго начала термодинамики следует, что существует однозначная ф-ция состояния S, к-рая при обратимых адиабатич. процессах (dQ =0) остаётся постоянной. Из неравенства Клаузиуса вытекает, что при необратимых процессах

ЭНТРОПИЯ фото №7

поэтому в адиабатически изолированных системах (см. Термодинамическая система )при необратимых процессах Э. может только возрастать (закон возрастания Э.).

Согласно первому началу термодинамики,

ЭНТРОПИЯ фото №8

т. е. сообщаемое системе кол-во теплоты равно сумме приращения внутренней энергии dU и совершаемой системой элементарной работы, где а i - внеш. параметры состояния, Ai - сопряжённые им внутр. параметры. Когда единственным внеш. параметром является объём системы V, элементарная работа равна pdV, где р- давление. С учётом первого начала термодинамики дифференциальное определение Э. принимает вид

ЭНТРОПИЯ фото №9

откуда следует, что Э. представляет собой потенциал термодинамический при выборе в качестве независимых переменных внутр. энергии U и внеш. параметров а i . Частные производные Э.

ЭНТРОПИЯ фото №10

определяют уравнения состояния системы. Уравнение (3) определяет абсолютную температурную шкалу.

Ф-ла (2) определяет Э. лишь с точностью до аддитивной постоянной (т. е. оставляет начало отсчёта Э. произвольным). Абс. значение Э. можно установить с помощью третьего начала термодинамики, согласно к-рому принимается S= 0 при Т=0.

Энтропия в неравновесной термодинамике может быть определена для таких неравновесных состояний, когда можно ввести представление о локальном равновесии термодинамическом в отд. подсистемах (напр., в малых, но мак-роскопич. объёмах). По определению, Э. неравновесной системы равна сумме Э. её частей, находящихся в локальном равновесии. Термодинамика неравновесных процессов позволяет более детально исследовать процесс возрастания Э. и вычислить кол-во Э., образующееся в единице объёма в единицу времени вследствие отклонения от тер-модинамич. равновесия - производство энтропии. Для пространственно неоднородных неравновесных систем второе начало термодинамики может быть записано в виде у р а в н е н и я б а л а н с а д л я п л о т н о с т и

э н т р о п и и S(x, t), где х - радиус-вектор физически бесконечно малого элемента среды:

ЭНТРОПИЯ фото №11

JS(x, t) - вектор потока Э.; s(x,t)>=0-л о к а л ь н о е п р ои з в о д с т в о э н т р о п и и. Полное производство Э. равно интегралу от s( х, t )по объёму системы. Если т е р м о д ин а м и ч. с и л ы Xi(x, t )(градиенты темп-ры, хим. потенциалов компонентов, массовой скорости и т. д.) создают в системе сопряжённые им потоки Ji (x, t )(теплоты, вещества, импульса и др.), то в такой системе ЭНТРОПИЯ фото №12 . Если величины Xi , Ji - векторы или тензоры, то в выражении для s подразумевается их полная свёртка. Потоки Ji связаны с термодинамич. силами Xk линейными соотношениями ЭНТРОПИЯ фото №13, где Lik- онсагеровские кинетические коэффициенты. Следовательно, локальное производство Э. ЭНТРОПИЯ фото №14выражается квадратичной формой от термодинамич. сил.

Энтропия в равновесной статистической физике зависит от выбора статистич. ансамбля. Для микроканонич. ансамбля Гиббса (см. Гиббса распределения), описывающего равновесное состояние изолированных систем, Э. выражается через статистический вес состояния W(ЭНТРОПИЯ фото №15, N, V):

ЭНТРОПИЯ фото №16

где W(ЭНТРОПИЯ фото №17, N, V) - число квантовомеханич. состояний, энергия к-рых ЭНТРОПИЯ фото №18 лежит в узком интервале ЭНТРОПИЯ фото №19 вблизи значения ЭНТРОПИЯ фото №20 системы из N частиц в объёме V. В классич. статистич. физике W- величина безразмерного объёма в фазовом пространстве системы при заданных ЭНТРОПИЯ фото №21, N, V:

ЭНТРОПИЯ фото №22

где d Г N = dpdq/N!h3N; dpdq - элемент объёма в 6N -мерном фазовом пространстве системы из N частиц ( р - обобщённый импульс; q - обобщённая координата). Интегрирование ведётся в пределах ЭНТРОПИЯ фото №23 - Гамильтона функция системы из N частиц). Для канонич. ансамбля Гиббса, описывающего равновесное состояние систем в термостате, Э. выражается через каноническое распределение Гиббса f(p, q):

ЭНТРОПИЯ фото №24

Аналогичным образом определяется Э. для систем с переменным числом частиц в термостате через большое каноническое распределение Гиббса fN(p, q):

ЭНТРОПИЯ фото №25

В квантовой статистике Э. для всех равновесных ансамблей выражается через статистич. оператор (или матрицу плотности) ЭНТРОПИЯ фото №26:

ЭНТРОПИЯ фото №27

Символ SpЭНТРОПИЯ фото №28 означает сумму диагональных матричных элементов оператора ЭНТРОПИЯ фото №29; суммирование ведётся по волновым ф-циям состояний допустимой симметрии относительно перестановки частиц.

Вдали от областей сосуществования фаз и критич. точек значения Э., вычисленные с помощью разл. ансамблей Гиббса, совпадают с термодинамич. Э. в пределе NЭНТРОПИЯ фото №30, VЭНТРОПИЯ фото №31. при N/V=const (см. Термодинамический предел).

Информационная энтропия. Э. в статистич. физике связана с информационной Э., к-рая служит мерой неопределённости сообщений (сообщения описываются множеством величин х1 х2, ..., х n и вероятностей Р12,...,Р n их появления). Для дискретного статистич. распределения вероятностей Pk информационной Э. (с точностью до постоянного множителя) наз. величину

ЭНТРОПИЯ фото №32

Величина Su =0, если к.-л. из Pk равна 1, а остальные - нулю, т. е. информация достоверна, неопределённость отсутствует. Э. принимает наибольшее значение, когда все Pk одинаковы (неопределённость в информации максимальна). Непрерывной случайной величине х сф-цией распределения f(x )соответствует информационная Э.

ЭНТРОПИЯ фото №33

Информационная Э., как и термодинамическая, обладает свойством аддитивности (Э. неск. сообщений равна сумме Э. отд. сообщений). Из вероятностной трактовки Э. в статистич. физике выводятся осн. равновесные распределения: канонич. распределение Гиббса, к-рое соответствует макс. значению информационной Э. при заданной ср. энергии, и большое канонич. распределение Гиббса - при заданных ср. энергии и ср. числе частиц в системе.

Энтропия в неравновесной статистической физике зависит от способа описания неравновесного состояния системы. Напр., неравновесное гидродинамич. состояние од-нокомпонентных газов и жидкостей определяется неоднородными распределениями ср. значений плотностей энергии <ЭНТРОПИЯ фото №34(x)>t, числа частиц <ЭНТРОПИЯ фото №35(x)>t и импульса <ЭНТРОПИЯ фото №36(x)>t, т. е. плотностей интегралов движения. Динамические переменные ЭНТРОПИЯ фото №37 в классич. случае являются ф-циями координат и импульсов частиц, а в кван. случае-соответствующими операторами. Операция усреднения <...>t выполняется с н е р а в н о в е с н о й ф у н к ц и е й р а с п р е д е л е н и я f(p, q, t), удовлетворяющей Лиувилля уравнению дf/дt ={H, f}; Н - гамильтониан системы, {Н, f} - Пуассона скобка. В квантовом случае в уравнении Лиувилля надо заменить f на неравновесный статистич. оператор p^(t), а классич. скобку Пуассона - на квантовую.

Э. в неравновесной статистич. физике пропорциональна (S = kSu )максимуму информационной Э. Su=-f>t при заданных ср. значениях динамических переменных, выбранных для описания неравновесного состояния. Напр., если неравновесное состояние характеризуется ср. значениями ЭНТРОПИЯ фото №38 , то максимуму информац. Э. соответствует л о к а л ь н о-р а в н о в е с н о е р а с п р е д ел е н и е

ЭНТРОПИЯ фото №39

где ЭНТРОПИЯ фото №40 -плотность энергии в сопровождающей системе координат, движущейся с массовой скоростью u(x, t). Ф у н к ц и о н а л М а -с ь е - П л а н к а Ф(t) определяется из условия нормировки fl и зависит от b(x, t), b( х, t)m(x, t),u(x,t), где b(x, t) - обратная локальная темп-pa, m(x, t) - локальный хим. потенциал. В этом случае неравновесная Э.

ЭНТРОПИЯ фото №41

является функционалом

ЭНТРОПИЯ фото №42

Операция <...>tl означает усреднение по распределению (13), причём

ЭНТРОПИЯ фото №43

Основная идея неравновесной термодинамики состоит в том, что термодинамич. равенства должны выполняться для элемента среды, движущегося с массовой скоростью. Из (15) следует, что для этого необходимо, чтобы

ЭНТРОПИЯ фото №44

Равенства (16) являются условиями самосогласованного выбора параметров b(x, t),m(x,t), u(x, t )и определяют их зависимость от неравновесных ср. значений <H^(x)>t ,

ЭНТРОПИЯ фото №45.

Локально-равновесное распределение служит вспомогательным распределением для определения понятия Э. неравновесного состояния, но не описывает необратимых переноса явлений. Потоки энергии и импульса, вычисленные с помощью fl (t), соответствуют потокам этих величин в идеальной гидродинамике. Неравновесная ф-ция распределения может быть получена как формальное решение ур-ния Лиувилля с нач. условием локального равновесия в нек-рый момент времени t0: f(t; t0) = exp [- iL(t - t0)] fl(t0). Оператор Лиувилля L определяется через скобки Пуассона: iLf= {H, f}. Это решение зависит от нач. состояния, к-рое реальная система должна "забывать" из-за корреляций между элементами среды. Можно считать, что пучок фазовых траекторий с различными t0(-ЭНТРОПИЯ фото №460 )реализует ансамбль Гиббса для неравновесных состояний. Предполагая, что нач. состояния распределены с экспоненциальной вероятностью T-1 ехр[-(t - t0)/Т](г и п о т е з а о б а п р и о р н ы х в е р оя т н о с т я х), получим неравновесную ф-цию распределения

ЭНТРОПИЯ фото №47

Т-1 =eЭНТРОПИЯ фото №48+0 после термодинамич. предельного перехода при вычислении средних. Ф-ция распределения (17) удовлетворяет уравнению Лиувилля с малым источником в правой части eЭНТРОПИЯ фото №49+0. Кроме того, предполагаются выполненными условия самосогласования (16).

ЭНТРОПИЯ фото №50


С помощью ф-ции распределения (17) можно усреднить уравнения движения для ЭНТРОПИЯ фото №51, ЭНТРОПИЯ фото №52 и получить теплопроводности уравнение и Навье - Стокса уравнение, в к-рых коэффициенты тепло-проводности и вязкости представлены в виде пространственно-временных корреляционных функций потоков энергии и импульса ( Грина-Кубо формулы). Отсюда следует уравнение баланса (5) для плотности Э. и другие соотношения неравновесной термодинамики.

В неравновесной статистич. физике закон возрастания Э. тесно связан со свойством симметрии уравнения Лиувилля относительно обращения времени. Малый член ~eЭНТРОПИЯ фото №53+0 в уравнении (18) нарушает эту симметрию, снимая вырождение, т. е. отбирая запаздывающее решение уравнения Лиувилля. Такое решение приводит к s>0 в уравнении (5), т. е. делает возможным возрастание Э. При этом существенно, что eЭНТРОПИЯ фото №54+0 после термодинамич. предельного перехода. Другое решение уравнения Лиувилля (c eЭНТРОПИЯ фото №55-0) приводит к убыванию Э. и должно быть отброшено как нефизическое.

Э. для других процессов, отличных от гидродинамических, может быть определена с помощью к в а з и р а в н ов е с н о г о с о с т о я н и я, к-рое соответствует максимуму информационной Э. при заданных средних значениях не-к-рого набора динамических переменных, характеризующих неравновесное состояние. В общем случае квазиравновесное состояние может сильно отличаться от локального равновесия.

Понятие Э. используется также в классич. механике как характеристика хаоса динамического в системах с неустойчивостью движения-экспоненциальной расходимостью близких в нач. момент траекторий. Количественной мерой неустойчивости таких систем служит э н т р о п и я К р ыл о в а- К о л м о г о р о в а - С и н а я, или К- э н т р о п и я. Для широкого класса систем K -энтропия выражается через положительные показатели Ляпунова по формуле

ЭНТРОПИЯ фото №56

Если положительные показатели Ляпунова отсутствуют и, следовательно, движение устойчиво, то K -энтропия равна нулю.

Лит.: Майер Дж., Гепперт-Майер М., Статистическая механика, пер. с англ., 2 изд., М., 1980; де Гроот С., Мазур П., Неравновесная термодинамика, пер. с англ., М., 1964; Зубарев Д. Н., Неравновесная статистическая термодинамика, М., 1971; его же, Современные методы статистической теории неравновесных процессов, в кн.: Итоги науки и техники, сер. Современные проблемы математики, т. 15, М., 1980; Исихара А., Статистическая физика, пер. с англ., М., 1973; Ахиезер А. И., Пелет-минский С. В., Методы статистической физики, М., 1977; Гиббс Дж., Термодинамика. Статистическая механика, М., 1982; Леон-тович М. А., Введение в термодинамику. Статистическая физика, М., 1983; Климонтович Ю. Л., Статистическая теория открытых систем, М., 1995. Д. Н. Зубарев, В. Г. Морозов.

Физическая энциклопедия. В 5-ти томах. — М.: Советская энциклопедия..1988.


Синонимы:
беспорядок, разлад


Смотреть больше слов в «Физической энциклопедии»

ЭНТРОПИЯ ВСЕЛЕННОЙ →← ЭНТРОПИЙНЫЕ ФЛУКТУАЦИИ

Синонимы слова "ЭНТРОПИЯ":

Смотреть что такое ЭНТРОПИЯ в других словарях:

ЭНТРОПИЯ

см. Термохимия и Теплота.

ЭНТРОПИЯ

(от греч. entropía — поворот, превращение)        понятие, впервые введенное в термодинамике (См. Термодинамика) для определения меры необратимого расс... смотреть

ЭНТРОПИЯ

энтропия 1. ж. Физическая величина, характеризующая тепловое состояние тела или системы тел и возможные изменения этих состояний. 2. ж. Мера, степень неопределенности ситуации (в теории информации).<br><br><br>... смотреть

ЭНТРОПИЯ

энтропия ж. физ., мед.entropy

ЭНТРОПИЯ

энтропия беспорядок, разлад Словарь русских синонимов. энтропия сущ., кол-во синонимов: 2 • беспорядок (127) • разлад (58) Словарь синонимов ASIS.В.Н. Тришин.2013. . Синонимы: беспорядок, разлад... смотреть

ЭНТРОПИЯ

Энтропия — см. Термохимия и Теплота.

ЭНТРОПИЯ

- теоретико-информационная мера степени неопределенности случайной величины. Если - дискретная случайная величина, определенная на нек-ром вероятностно... смотреть

ЭНТРОПИЯ

ф-ция состояния Sтермодинамич. системы, изменение к-рой dS для бесконечно малого обратимого изменения состояния системы равно отношению кол-ва теплоты... смотреть

ЭНТРОПИЯ

[εν (эн) — в; τροπή (ςропэ) — превращение] — одно из наиболее абстрактных научных понятий, имеющее фундаментальное значение. 1. В классической термодинамике Э-— это понятие, введенное Клаузисом в середине XIX в. и представляющее собой термодинамическую функцию состояния системы (S), элементарное изменение которой в равновесном процессе равно отношению, а в неравновесном — больше отношения бесконечно малого количества сообщенной системе теплоты к абс. температуре (по Кельвину) системы, т. е. <i><img src="https://words-storage.s3.eu-central-1.amazonaws.com/production/article_images/5a61b9882685b2000e2d9412/ded7ca22-263c-4fa6-9b87-0957effc9406" width="64" height="41" align="center" class="responsive-img img-responsive" title="ЭНТРОПИЯ фото №1" alt="ЭНТРОПИЯ фото №1"></i> а для конечных изменений <img src="https://words-storage.s3.eu-central-1.amazonaws.com/production/article_images/5a61b9882685b2000e2d9412/e2560711-dd2c-4d7c-89fb-0e0162b7a906" width="69" height="41" align="center" class="responsive-img img-responsive" title="ЭНТРОПИЯ фото №2" alt="ЭНТРОПИЯ фото №2"> Если система изолированная (замкнутая), в т. ч. адиабатная, то ее Э. может либо сохраняться постоянной (при протекании в ней лишь равновесных процессов), либо увеличиваться (при наличии в системе неравновесных процессов), но не уменьшаться, т. е. ∆S ≥ Q, представляющее собой выражение второго закона термодинамики, справедливое для изолированных систем. Поскольку все реальные процессы являются необратимыми, этот закон определяет их направленность, которая обусловлена всеобщей тенденцией к выравниванию энергетических потенциалов: системы, не получающие дополнительной энергии извне, спонтанно эволюционируют в направлении к энергетически наиболее “благоприятному” состоянию термодинамического равновесия, при катером Э. достигает максимального значения. В частности, в изолированной системе тепло может .переходить только от горячего тела к холодному, а не наоборот (вплоть до достижения состояния температурного баланса).Это приводит к энергетической ∆еградации”— уменьшению количества энергии, способного произвести работу вследствие перехода в др. виды энергии. В связи с этим Клаузисом и Кельвином была выдвинута теория “тепловой смерти” Вселенной. Впоследствии второй закон термодинамики был обобщен для др. видов энергии: закон уменьшения разности потенциалов в замкнутой электрической цепи, правило Ле-Шателье в химии и др. В неизолированных системах изменение Э. в ходе как равновесных, так и неравновесных процессов может быть и положительным и отрицательным (так, охлаждение и кристаллизация расплава сопровождаются уменьшением его Э.). Величину изменения Э. при реакции легко определить, если известны Э. всех участвующих в реакции веществ. <p>2. В статистической термодинамике Э.—понятие, отражающее степень беспорядка в расположении и движении большого количества однородных элементов (молекул, атомов, ионов и др.) в изолированной системе, которому было дано статистическое истолкование в конце XIX в. в результате работ Максвелла, Гиббса, Больцмана и Планка и которое может быть определено известной формулой Больцмана — Планка: <i>S =</i> k·lnP,<i></i> где <i>k</i> = 1,38·10<sup>-16</sup> эрг/градус (постоянная Больцмана), <img src="https://words-storage.s3.eu-central-1.amazonaws.com/production/article_images/5a61b9882685b2000e2d9412/c49dbd60-30b5-4821-a863-3950ec38207e" width="12" height="22" align="center" class="responsive-img img-responsive" title="ЭНТРОПИЯ фото №3" alt="ЭНТРОПИЯ фото №3">Р<i> —</i> число различных (равновероятностных) микросостояний изолированной системы, которое иначе называют термодинамической вероятностью (Планк), числом элементарных комплексий (Бриллюэн) или статистическим весом (в отечественной лит.). Опыт показывает, что эволюция распределения энергии между элементами изолированной системы приводит к возрастанию числа Р: наиболее вероятным является такое распределение, при котором Р максимально (следовательно, и Э. также максимальна), оно соответствует энергетически “благоприятному” состоянию. Статистическое истолкование Э. со всей ясностью вскрыло вероятностный характер второго закона термодинамики; от него возможны отклонения (флуктуации), но чем больше величина флуктуации, тем меньше ее вероятность. На этой основе стала возможной, в частности, критика теории “тепловой смерти”, так как в пространственно-временных масштабах Вселенной возможны любые флуктуации (Больцман, Винер и др.).</p> <p>3. В теории информации Э.— мера неопределенности исхода случайного эксперимента, введенная Шенноном. Если эксперимент имеет <i>п</i> разл. исходов с соответствующими <i>вероятностями p<sub>1</sub>,</i> р<sub>2</sub> . . . <i>р<sub>n</sub>,</i> то Э. есть <img src="https://words-storage.s3.eu-central-1.amazonaws.com/production/article_images/5a61b9882685b2000e2d9412/740db836-42f4-46ad-9458-9ae0f956be9b" width="122" height="45" align="center" class="responsive-img img-responsive" title="ЭНТРОПИЯ фото №4" alt="ЭНТРОПИЯ фото №4"><i></i> Чаще всего Э. выражают через двоичные логарифмы. Единицей Э. служит бит. Э.— непрерывная, неотрицательная функция <i>p<sub>i</sub>, . . ., р<sub>n</sub>. Н</i> = 0, если любое <i>p<sub>i</sub> =</i> 1<i>,</i> a <i>p<sub>i</sub> = ...</i> = <i>р<sub>i-1</sub> = p<sub>i+1</sub></i> =<i> ...</i> = <i>р<sub>n</sub>=</i> 0, т. е. когда эксперимент не случаен и не содер. никакой неопределенности. Э. максимальна при данном п, когда все возможные значения случайной величины равновероятны, т. е. при <i>p<sub>i</sub> = ...</i> = <i>р<sub>n</sub> =</i> <i><img src="https://words-storage.s3.eu-central-1.amazonaws.com/production/article_images/5a61b9882685b2000e2d9412/e57ea852-e4ff-4e78-9634-a57954183d45" width="17" height="21" align="center" class="responsive-img img-responsive" title="ЭНТРОПИЯ фото №5" alt="ЭНТРОПИЯ фото №5">;</i> в этом случае H = log <i>n</i>. Для непрерывной случайной величины .X аналогичным образом вводится так называемая дифференциальная Э. в виде: <img src="https://words-storage.s3.eu-central-1.amazonaws.com/production/article_images/5a61b9882685b2000e2d9412/c352f93e-630d-4f94-884b-2615a4b336b0" width="162" height="49" align="center" class="responsive-img img-responsive" title="ЭНТРОПИЯ фото №6" alt="ЭНТРОПИЯ фото №6"> где<i>f(x)</i>—плотность вероятности <i>X.</i> Меры связи или устойчивости геол. характеристик, основанные на свойствах Э., чрезвычайно удобны, особенно при изучении качественных и полуколичественных наблюдений (напр., результатов полуколичественных спектральных анализов).</p> <p>4. Проблема взаимоотношений между понятиями термодинамической и шенноновской Э. до сих пор служит предметом оживленной дискуссии. Крайние точки зрения, каждая из которых имеет множество авторитетных сторонников, представлены Бриллюэном (1960) и Пирсом (1967): первый считает, что эти величины представляют по существу одно и то же (негэнтропийный принцип информации), второй настойчиво подчеркивает, что оба понятия совершенно различны, а тождественность их математических выражений является случайной и ей не следует придавать какого-либо существенного значения. Существует и принципиально иное представление (Виньковецкий, 1968, 1970), согласно которому вероятности, рассматриваемые в термодинамике и в теории информации, относятся к “событиям” разных классов —, соответственно, энергетическим и структурным. Согласно этому представлению, для достаточно полной характеристики изолированной (замкнутой) системы следует рассматривать 2 разл. Э.— энергетическую (Э. э.) и структурную (Э. с.): перераспределение энергии приводит к возрастанию Э. э. (второй закон термодинамики), но наряду и сопряженно с этим происходит усложнение структур — уменьшение Э. с. в соответствии с законом возрастания сложности. Величины Э. э. и Э. с. являются взаимно сопряженными, но не аддитивными. В свете этой концепции понятия Э. в термодинамике и в теории информации совершенно различны, но тождественность их математического выражения (изоморфизм) — факт фундаментального общенаучного значения. См. <i>Замкнутая система, Вселенная, Система, Изоморфизм. Я. В. Виньковецкий, В. И. Лебедев, Т. С. Лельчук, В. А. Рудник.</i><br></p><p class="src"><em><span itemprop="source">Геологический словарь: в 2-х томах. — М.: Недра</span>.<span itemprop="author">Под редакцией К. Н. Паффенгольца и др.</span>.<span itemprop="source-date">1978</span>.</em></p><b>Синонимы</b>: <div class="tags_list"> беспорядок, разлад </div><br><br>... смотреть

ЭНТРОПИЯ

метрическая динамической системы - один из важнейших инвариантов в эргодической теории. Основным является понятие Э. h(S)эндоморфизма S (см. Метричес... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ[англ. entropy < гр. en - в, внутрь + trope - поворот, превращение] - 1) физ. величина, характеризующая состояние системы материальных тел и оп... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ (от греч. entropia – поворот, превращение)часть внутренней энергии замкнутой системы или энергетической совокупности Вселенной, которая не... смотреть

ЭНТРОПИЯ

        ЭНТРОПИЯ (от греч. in — в и trope — поворот, превращение) — понятие классической термодинамики, введенное Р. Клаузиусом. С его помощью формулир... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ, показатель случайности или неупорядоченности строения физической системы. В ТЕРМОДИНАМИКЕ энтропия выражает количество тепловой энергии, приг... смотреть

ЭНТРОПИЯ

измеримого разбиения пространства с нормированной мерой - понятие, определяемое следующим образом. Если элементы разбиения имеющие меру нуль, образ... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ (греч. en — в и trope — поворот, превращение) — одно из осн. понятий классической физики, введенное в науку немецким физиком Р.Клаузиусом. С ее помощью формулируется один из осн. физических законов — закон возрастания энтропии, или второе начало термодинамики: в любой замкнутой физической с-ме, предоставленной самой себе, тепло всегда переходит от тел более нагретых к более холодным, вследствие чего температуры всех тел постепенно уравниваются и любые тепловые процессы в с-ме полностью прекращаются (в любой замкнутой физической с-ме энтропия стремится к максимуму). На языке математики это можно выразить иначе: любая замкнутая физическая с-ма от состояний менее вероятных переходит к более вероятным (энтропия — движение от "порядка" к "хаосу"). Но в неживой природе при благоприятном стечении обстоятельств иногда происходят процессы самоорганизации, сопровождающиеся уменьшением энтропии и повышением уровня организации тех или иных природных с-м. Способностью бороться с энтропией обладает и человек. Осмысление этого факта приводит философов к мысли, что именно в этом — в борьбе с накоплением энтропии и хаоса и состоит предназначение (смысл существования) человечества, причем не только в условиях Земли, но и в космических масштабах. И именно для этого появление разумных существ во Вселенной было предусмотрено тем "сознательным началом" (см. "Мировой Разум"), которое стояло у ее истоков (разумные обитатели Вселенной потребовались Космическому Разуму для поддержания стабильности космических процессов, в качестве реальных практических исполнителей его замыслов или это некое постоянное занятие, задание для разумных обитателей Вселенной, необходимость выполнения которого не позволила бы им разочароваться в своем бессмысленном существовании).<br><br><br>... смотреть

ЭНТРОПИЯ

греч. ???????? – поворот, превращение) – функция состояния термодинамич. системы, характеризующая направление протекания самопроизвольных процессов в этой системе и являющаяся мерой их необратимости. Понятие Э. введено в 1865 Р. Клаузиусом для характеристики процессов превращения энергии; в 1877 Л. Больцман дал ему статистич. истолкование. При помощи понятия Э. формулируется второе начало термодинамики: Э. термоизолированной системы всегда только увеличивается, т.е. такая система, предоставленная самой себе, стремится к тепловому равновесию, при к-ром Э. максимальна. В статистич. физике Э. выражает неопределенность микроскопич. состояния системы: чем больше микроскопич. состояний системы соответствуют данному макроскопич. состоянию, тем выше термодинамич. вероятность и Э. последнего. Система с маловероятной структурой, предоставленная самой себе, развивается в сторону наиболее вероятной структуры, т.е. в сторону возрастания Э. Это, однако, относится только к замкнутым системам, поэтому Э. не может быть использована для обоснования тепловой смерти вселенной. В теории и н ф о р м а ц и и Э. рассматривается как мера недостатка информации в системе. В кибернетике при помощи понятий Э. и негэнтропии (отрицат. энтропии) выражают меру организованности системы. Будучи справедливой применительно к системам, подчиняющимся статистич. закономерностям, эта мера, однако, требует большой осторожности при переносе на биологические, языковые и социальные системы. Лит.: Шамбадаль П., Развитие и приложения понятия Э., [пер. с франц.], М., 1967; Пирс Дж., Символы, сигналы, шумы, [пер. с англ.], М., 1967. Л. Фаткин. Москва. ... смотреть

ЭНТРОПИЯ

entropy* * *энтропи́я ж.entropyс переме́нной энтропи́ей — nonhomoentropicс постоя́нной энтропи́ей — homoentropicизбы́точная энтропи́я — excess entro... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ и, ж. entropie f., нем. Entropie &LT;гр. en в, внутрь + trope поворот, превращение. 1. Физическая величина, характеризующая тепловое состояни... смотреть

ЭНТРОПИЯ

Формально, математическое измерение дезорганизации системы. Этот термин первоначально относился к изучению теплоты и сначала определялся как количество теплоты, при котором невозможно выполнять работу. Этот термин использовался в контексте второго закона термодинамики, который гласит, что энтропия системы никогда не уменьшается, температурное равновесие (смерть) – это конечное состояние любой изолированной системы. В психологии: 1. В когнитивной теории имеется тенденция связывать это понятие с неопределенностью. То есть чем выше неопределенность последствий любой ситуации, тем больше будет количество информации, содержащейся в ней, и тем больше будет энтропия. В этом контексте см. обсуждение термина информация. 2. В психоаналитической теории – степень, в которой психическая энергия становится недоступной для использования, после вложения ее в определенный объект. Обратите внимание, что это явно метафорическое значение параллельно оригинальному термодинамическому понятию. 3. В социальной психологии – количество энергии, ставшей недоступной для осуществления социальных изменений и социального прогресса. Здесь наблюдается еще большее метафорическое расширение значения; просто неясно, какая форма "энергии" здесь имеется в виду. Утверждается, что с увеличением этой "социальной" энтропии связаны постепенный упадок и застой общества или культуры.... смотреть

ЭНТРОПИЯ

(от греч. in – в trope – поворот, превращение) – понятие классической термодинамики, введенное Р. Клаузиусом. На макроуровне Э. интерпретируется как способность энергии к превращениям, и поэтому по мере ее возрастания эта способность уменьшается и энергия деградирует. С микроскопической т. зр. рост Э. связан с переходом системы от состояний менее вероятных к состояниям более вероятным. Эти представления классической физики находились в прямом противоречии с положениями биологии и социальных наук. В органической природе происходит процесс возникновения и совершенствования новых видов растений и животных, а общественная практика свидетельствует о прогрессе социальных структур и материального производства общества. Указанное противоречие было разрешено введением понятия открытой системы, к которой принадлежит большинство природных и социальных систем. За счет обмена энергией и веществом со средой такие системы могут находиться вдали от точки термодинамического равновесия и благодаря флуктуациям самоорганизовываться. Энтропийный анализ конфликтов – дело будущего. Однако в силу того что Э. является универсальной характеристикой любых систем, ее использование в интересах конфликтологии будет способствовать более глубокому пониманию конфликтов.... смотреть

ЭНТРОПИЯ

от греч. entropia - поворот, превращение) - часть внутренней энергии замкнутой системы или энергетической совокупности Вселенной, которая не может быть использована, в частности не может перейти или быть преобразована в механическую работу. Точное определение энтропии производится с помощью математических расчетов. Наиболее отчетливо эффект энтропии виден на примере термодинамических процессов. Так, тепло никогда совершенно не переходит в механическую работу, преобразуясь в др. виды энергии. Примечательно, что при обратимых процессах величина энтропии остается неизменной, при необратимых, наоборот, неуклонно возрастает, причем этот прирост происходит за счет уменьшения механической энергии. Следовательно, все то множество необратимых процессов, которые происходят в природе, сопровождается уменьшением механической энергии, что в конечном итоге должно привести к всеобщему параличу, или, говоря иначе, "тепловой смерти". Но такой вывод правомочен лишь в случае постулирования тоталитарности Вселенной как замкнутой эмпирической данности. Христ. теологи, основываясь на энтропии, говорили о конечности мира, используя ее как доказательство существования Бога. ... смотреть

ЭНТРОПИЯ

(от греч. entropia поворот, превращение) часть внутренней энергии замкнутой системы или энергетической совокупности Вселенной, которая не может быть использована, в частности не может перейти или быть преобразована в механическую работу. Точное определение энтропии производится с помощью математических расчетов. Наиболее отчетливо эффект энтропии виден на примере термодинамических процессов. Так, тепло никогда совершенно не переходит в механическую работу, преобразуясь в др. виды энергии. Примечательно, что при обратимых процессах величина энтропии остается неизменной, при необратимых, наоборот, неуклонно возрастает, причем этот прирост происходит за счет уменьшения механической энергии. Следовательно, все то множество необратимых процессов, которые происходят в природе, сопровождается уменьшением механической энергии, что в конечном итоге должно привести к всеобщему параличу, или, говоря иначе, *тепловой смерти*. Но такой вывод правомочен лишь в случае постулирования тоталитарности Вселенной как замкнутой эмпирической данности. Христ. теологи, основываясь на энтропии, говорили о конечности мира, используя ее как доказательство существования Бога.... смотреть

ЭНТРОПИЯ

(от греч. entropia - поворот, превращение) - ф-ция S состояния термодинамической системы, характеризующая направление протекания процесса теплообмена м... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ (греч en - в, tropia - поворот, превращение) - понятие классической физики (введено в науку Р. Клаузиусом в 19 в.), посредством которого, в ча... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ (от греч. en — в, внутрь и trope — поворот, превращение), величина, характеризующая меру связанной энергии (D S), которая в изотермическом п... смотреть

ЭНТРОПИЯ

(греч en - в, tropia - поворот, превращение) - понятие классической физики (введено в науку Р. Клаузиусом в 19 в.), посредством которого, в частности, описывалось действие второго начала термодинамики: в замкнутой системе, находящейся в стационарных условиях, либо в границах энергетической совокупности Вселенной, происходит возрастание Э. Это означало, что все виды энергии в конечном счете превращаются в тепловую энергию, а последняя рассеивается в окружающую среду. Точное определение Э. предполагалось осуществлять с помощью математических расчетов. Характеризующий процессы в замкнутых системах принцип возрастания Э., видимо, неприменим к Вселенной в целом (выдвинутая Клаузиусом и Томпсоном идея ее неизбежной "тепловой смерти"). В контексте раскрытия статистического характера процесса Э. стало очевидным, что для образований, включающих в себя бесконечно большое число частиц, все возможные их состояния оказываются равновероятными. А.А. Грицанов... смотреть

ЭНТРОПИЯ

(греч. en – в, внутри; thrope – поворот, превращение) – в физике – измерение дезорганизации системы, степень приближения к тепловой смерти или температурному равновесию (согласно второму закону термодинамики); 2. в когнитивной психологии – состояние неопределённости некоей ситуации. Чем выше степень неопределённости понимания или осознания последствий какой-либо ситуации, чем менее она является предсказуемой для индивида, группы и, соответственно, тем больше информации она содержит и тем большей будет энтропия; 3. в психоанализе – степень, в какой психическая энергия становится недоступной для использования после её вложения в определённый интроецированный объект (фактически это приложение второго закона термодинамики к психологии); 4. в социальной психологии – количество энергии людей, ставшей недоступной для осуществление социальных изменений и социального прогресса. С увеличением «социальной» энтропии связывают стагнацию и упадок общества.... смотреть

ЭНТРОПИЯ

[entropy] — термодинамическая величина, функция состояния термодинамической системы, характеризующаяся термодинамической вероятностью реализации данного состояния системы. Разность энтропия в двух состояниях химического равновесия равна произведенному количеству теплоты, которое необходимо сообщить системе, чтобы перевести ее из первого во второе состояние по изотермическому пути, деленному на абсолютную температуру. Физический смысл имеет не сама энтропия, а разность энтропии двух состояний. Понятие энтропии сыграло важную роль в формулировании второго начала термодинамики, важнейшие следствия которого широко используются при анализе термодинамических процессов. Если в системе идет адиабатный процесс, то энтропия системы не изменяется. Энтропия изолированной системы при любых необратимый процессах возрастает. Для практических расчетов изменения энтропия вещества при температуре <i>T</i> используются справочные даннные.<br><br>... смотреть

ЭНТРОПИЯ

гр. внутри + поворот) — понятие, впервые введенное в термодинамике (см. Термодинамика) для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления макроскопического состояния; в теории информации как мера неопределенности опыта (испытания), который может иметь разные исходы. Эти трактовки энтропии имеют глубокую внутреннюю связь. Например, на основе представлений об информационной энтропии можно вывести все важнейшие положения статистической физики. В термодинамике понятие «энтропия» было введено 1865 г. немецким физиком Р. Клаузиусом (1822 — 1888), который показал, что процесс превращения теплоты в работу подчиняется определенной физической закономерности — второму началу термодинамики, которое можно сформулировать строго математически, если ввести особую функцию состояния — энтропию. (См. Начало термодинамики второе). ... смотреть

ЭНТРОПИЯ

Энтропия (от греч. en, trop? — поворот, превращение) в теории информации: величина, характеризующая степень неопределенности системы; в теории систем... смотреть

ЭНТРОПИЯ

(от греч. entropia - поворот, превращение) (обычно обозначается S), функция состояния термодинамич. системы, изменение к-рой dS в равновесном процессе ... смотреть

ЭНТРОПИЯ

1) Орфографическая запись слова: энтропия2) Ударение в слове: энтроп`ия3) Деление слова на слоги (перенос слова): энтропия4) Фонетическая транскрипция ... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ (от греч . entropia - поворот, превращение) (обычно обозначается S), функция состояния термодинамической системы, изменение которой dS в равновесном процессе равно отношению количества теплоты dQ, сообщенного системе или отведенного от нее, к термодинамической температуре Т системы. Неравновесные процессы в изолированной системе сопровождаются ростом энтропии, они приближают систему к состоянию равновесия, в котором S максимальна. Понятие "энтропия" введено в 1865 Р. Клаузиусом. Статистическая физика рассматривает энтропию как меру вероятности пребывания системы в данном состоянии (Больцмана принцип). Понятием энтропии широко пользуются в физике, химии, биологии и теории информации.<br><br><br>... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ (от греч. entropia - поворот - превращение) (обычно обозначается S), функция состояния термодинамической системы, изменение которой dS в равновесном процессе равно отношению количества теплоты dQ, сообщенного системе или отведенного от нее, к термодинамической температуре Т системы. Неравновесные процессы в изолированной системе сопровождаются ростом энтропии, они приближают систему к состоянию равновесия, в котором S максимальна. Понятие "энтропия" введено в 1865 Р. Клаузиусом. Статистическая физика рассматривает энтропию как меру вероятности пребывания системы в данном состоянии (Больцмана принцип). Понятием энтропии широко пользуются в физике, химии, биологии и теории информации.<br>... смотреть

ЭНТРОПИЯ

ЭНТРОПИЯ (от греч. en, trope - поворот, превращение) в теории информации: величина, характеризующая степень неопределенности системы. Райзберг Б.А.... смотреть

ЭНТРОПИЯ

- (от греч. entropia - поворот - превращение) (обычно обозначаетсяS), функция состояния термодинамической системы, изменение которой dS вравновесном процессе равно отношению количества теплоты dQ, сообщенногосистеме или отведенного от нее, к термодинамической температуре Т системы.Неравновесные процессы в изолированной системе сопровождаются ростомэнтропии, они приближают систему к состоянию равновесия, в котором Sмаксимальна. Понятие ""энтропия"" введено в 1865 Р. Клаузиусом.Статистическая физика рассматривает энтропию как меру вероятностипребывания системы в данном состоянии (Больцмана принцип). Понятиемэнтропии широко пользуются в физике, химии, биологии и теории информации.... смотреть

ЭНТРОПИЯ

ж.entropy- абсолютная энтропия- внутренняя энтропия- информационная энтропия- конфигурационная энтропия- магнитная энтропия- молярная энтропия- неравно... смотреть

ЭНТРОПИЯ

Энтропия Энтропия - мера внутренней неупорядоченности информационной системы. Энтропия увеличивается при хаотическом распределении информационных рес... смотреть

ЭНТРОПИЯ

• энтропия f english: entropy deutsch: Entropie f français: entropie Синонимы: беспорядок, разлад

ЭНТРОПИЯ

(от греческого entropia - превращение), понятие, впервые введенное в термодинамике (Р. Клаузиус, 1865) для определения меры необратимого рассеяния энергии неравновесной термодинамической системы. Процессы, стремящиеся привести систему к равновесному состоянию, сопровождаются ростом энтропии. В статистической физике энтропия - мера вероятности пребывания системы в данном состоянии (Л. Больцман, 1872), в теории информации - мера неопределенности какого-либо опыта (испытания). Понятие энтропии используется также в химии, биологии и других областях науки как мера неупорядоченности, хаотичности.... смотреть

ЭНТРОПИЯ

(от греч. en — в, внутрь, при + thrope — поворот, превращение) — физическая величина, определяющая меру хаоса (беспорядка) в изолированной системе (как правило, в термодинамических системах); мера внутренней неупорядоченности системы, она остается либо постоянной (для обратимых процессов), либо возрастает (для необратимых процессов). Принимает только положительные значения. Понятие энтропии введено в науку немецким физиком Рудольфом Клаузиусом в 1865 году. Начала современного естествознания. Тезаурус. — Ростов-на-Дону.В.Н. Савченко, В.П. Смагин.2006. Синонимы: беспорядок, разлад... смотреть

ЭНТРОПИЯ

энтропия [гр. en в, внутрь-f trope поворот, превращение] - 1) физ. одна из величин, характеризующих тепловое состояние тела или системы тел; мера внутренней неупорядоченности системы; при всех процессах, происходящих к замкнутой системе, э. или возрастает (необратимые процессы), или остается постоянной (обратимые процессы); 2) в теории информации - мера неопределенности ситуации (случайной величины) с конечным или с четным числом исходов, напр, опыт, до проведения которого результат в точности неизвестен; 3) мед. заворот век внутрь. <br><br><br>... смотреть

ЭНТРОПИЯ

ж. физ. entropia f - избыточная энтропия- информационная энтропия- магнитная энтропия- молярная энтропия- обобщённая энтропия- энтропия оптического си... смотреть

ЭНТРОПИЯ

-и, ж. 1. физ. Одна из величин, характеризующих тепловое состояние тела или системы тел; мера внутренней неупорядоченности системы.2.В теории информа... смотреть

ЭНТРОПИЯ

функция состояния системы, мера хаоса (беспорядка) в ней. Принимает только положительные значения. В термодинамике есть принцип возрастания Э. замкнутой системы. В замкнутой (изолированной) системе процессы протекают самопроизвольно и приводят систему в состояние равновесия (выравниваются, в первую очередь, температуры в разных частях системы). Это состояние явл. наиболее беспорядочным (хаотичным) и его Э. максимальна. След-но., при переходе от порядка к беспорядку Э. растет. Ф.М.Дягилев ... смотреть

ЭНТРОПИЯ

Энтропия [гр. еп-внутрь + (горё-превращение] - термодинамическая функция состояния системы, мера ее внутренней молекулярно-кинетической разупорядоч... смотреть

ЭНТРОПИЯ

однозначная функция состояния термодинамической системы, характеризующая направление протекания процесса теплообмена между системой и внешней средой, а также направление протекания самопроизвольных процессов в замкнутой системе. Неравновесные процессы сопровождаются возрастанием Э., в состоянии равновесия Э. максимальна. Единица Э. в СИ — джоуль на кельвин (Дж/К). Астрономический словарь.EdwART.2010. Синонимы: беспорядок, разлад... смотреть

ЭНТРОПИЯ

корень - ЭН; корень - ТРОП; окончание - ИЯ; Основа слова: ЭНТРОПВычисленный способ образования слова: Бессуфиксальный или другой∩ - ЭН; ∩ - ТРОП; ⏰ - И... смотреть

ЭНТРОПИЯ

(от греч. entropia - поворот, превраи^ение) - англ. entropy; нем. Entropie. 1. Мера внутренней неупорядоченности системы. 2. В кибернетике и теории вероятностей - меране-определенности случайной величины. 3. В биологических системах - термодинамическая характеристика состояния биологической системы. Antinazi.Энциклопедия социологии,2009 Синонимы: беспорядок, разлад... смотреть

ЭНТРОПИЯ

Rzeczownik энтропия f entropia f Fizyczny energetyka f

ЭНТРОПИЯ

Рот Роп Рон Рия Ритон Рио Рин Пятно Пэр Птр Пряно Протия Приятно Притон Прион Поэт Потир Поти Пот Порт Понтяр Понтия Понт Пони Питон Пирон Рэп Тип Пир Пион Пино Орт Орн Тир Тон Тоня Топ Тор Нтр Нпо Нория Троп Этно Нитро Нит Итр Ирон Ион Иня Яро Эрот Эри Эпитон Эон Энтропия Трон Норит Трип Трио Нто Нэп Опт Ория Тори... смотреть

ЭНТРОПИЯ

Энтропия (entropy, average information content) — в теории информации — мера неопределенности состояния объекта; мера неопределенности некоторой ситуации (случайной величины) с конечным или счетным числом исходов.<p>[ГОСТ 33707-2016. (ISO/IEC 2382:2015) Информационные технологии (ИТ). Словарь]</p>... смотреть

ЭНТРОПИЯ

- (от греч. entropia - поворот) - англ. entropy; нем. Entropie. 1. Мера внутренней неупорядоченности системы. 2. В кибернетике и теории вероятностей -меране-определенности случайной величины. 3. В биологических системах - термодинамическая характеристика состояния биологической системы.... смотреть

ЭНТРОПИЯ

(Entropy). Закон термодинамики, согласно которому любая энергетическая система стремится к состоянию равновесия. В теории психоанализа энтропия означает, что всем живым организмам присуще обязательное стремление вернуться в неживое состояние, из которого они изначально произошли.... смотреть

ЭНТРОПИЯ

(от греч. eirtropia поворот, превращение) часть внутренней энергии замкнутой системы, которая не может быть использована. Неравновесные процессы в изолированной системе сопровождаются ростом энтропии, они приближают систему к состоянию равновесия, в котором энтропия максимальна.... смотреть

ЭНТРОПИЯ

в теории информации — мера неопределенности состояния объекта; мера неопределенности некоторой ситуации (случайной величины) с конечным или счетным чис... смотреть

ЭНТРОПИЯ

(от греч. entropia – поворот, превращение) – мера неупорядоченности, или хаотичности, состояния системы. Понятие, впервые введенное Р.Клаузиусом в термодинамике для определения меры необратимого рассеяния энергии. Связь энтропии с вероятностью установлена Л.Больцманом. ... смотреть

ЭНТРОПИЯ

(от греч. en — в, внутрь и trope — поворот, превращение) — в теории информации величина, характеризующая меру неопределенности ситуации (случайной величины), с конечным или четным числом исходов, напр, опыт, до проведения которого результат в точности неизвестен.... смотреть

ЭНТРОПИЯ

энтропи́я, энтропи́и, энтропи́и, энтропи́й, энтропи́и, энтропи́ям, энтропи́ю, энтропи́и, энтропи́ей, энтропи́ею, энтропи́ями, энтропи́и, энтропи́ях (Источник: «Полная акцентуированная парадигма по А. А. Зализняку») . Синонимы: беспорядок, разлад... смотреть

ЭНТРОПИЯ

Ударение в слове: энтроп`ияУдарение падает на букву: иБезударные гласные в слове: энтроп`ия

ЭНТРОПИЯ

в теории управления это мера неопределенности состояния или поведения системы в данных условиях. Э. по знаку противоположна объему информации.Синонимы:... смотреть

ЭНТРОПИЯ

энтропияאֶנטרוֹפּיָה נ'Синонимы: беспорядок, разлад

ЭНТРОПИЯ

сущ. жен. рода, только ед. ч.физ.ентропія

ЭНТРОПИЯ

(1 ж), Р., Д., Пр. энтропи/иСинонимы: беспорядок, разлад

ЭНТРОПИЯ

ж.(неопределенность) entropy- групповая энтропия- социальная энтропия

ЭНТРОПИЯ

ЭНТРОПИЯ 1. ж. Физическая величина, характеризующая тепловое состояние тела или системы тел и возможные изменения этих состояний. 2. ж. Мера, степень неопределенности ситуации (в теории информации).... смотреть

ЭНТРОПИЯ

астр., вчт, физ. ентропі́я - информационная энтропия - относительная энтропия - удельная энтропия - условная энтропия - частная энтропия - энтропия сообщения Синонимы: беспорядок, разлад... смотреть

ЭНТРОПИЯ

понятие термодинамики, характеризующее для замкнутых систем превращение всех видов энергии в тепловую. В более широком смысле означает стихийное возрастание хаоса как наиболее вероятного состояния.... смотреть

ЭНТРОПИЯ

от греч. en, trop? — поворот, превращение) в теории информации: величина, характеризующая степень неопределенности системы; в теории систем: величина, обратная уровню организации системы.... смотреть

ЭНТРОПИЯ

в теории информации – мера неопределенности ситуации (случайной величины) с конечным или с четным числом исходов, например, опыт, до проведения которого результат в точности неизвестен.... смотреть

ЭНТРОПИЯ

entropy– информационная энтропия– обобщенная энтропия– остаточная энтропияСинонимы: беспорядок, разлад

ЭНТРОПИЯ

f.entropyСинонимы: беспорядок, разлад

ЭНТРОПИЯ

энтропи́я, -пи́иСинонимы: беспорядок, разлад

ЭНТРОПИЯ

(греч. entropia - превращение) - величина, характеризующая степень неопределенности системы.Синонимы: беспорядок, разлад

ЭНТРОПИЯ

энтропи'я, энтропи'и, энтропи'и, энтропи'й, энтропи'и, энтропи'ям, энтропи'ю, энтропи'и, энтропи'ей, энтропи'ею, энтропи'ями, энтропи'и, энтропи'ях

ЭНТРОПИЯ

Б. Грин Мера беспорядка в физической системе; число перегруппировок компонент системы, не приводящих к изменению ее общего вида.

ЭНТРОПИЯ

энтроп'ия, -иСинонимы: беспорядок, разлад

ЭНТРОПИЯ

жEntropie fСинонимы: беспорядок, разлад

ЭНТРОПИЯ

〔名词〕 熵热力函数Синонимы: беспорядок, разлад

ЭНТРОПИЯ

entropyСинонимы: беспорядок, разлад

ЭНТРОПИЯ

энтропия ж Entropie f cСинонимы: беспорядок, разлад

ЭНТРОПИЯ

Начальная форма - Энтропия, единственное число, женский род, именительный падеж, неодушевленное

ЭНТРОПИЯ

мера неопределенности состояния или поведения системы в данных условиях [29. – С. 382].

ЭНТРОПИЯ

(греч. entropia превращение) величина, характеризующая степень неопределенности системы.

ЭНТРОПИЯ

آنتروپي

ЭНТРОПИЯ

в теории информации: величина, характеризующая степень неопределенности системы.

ЭНТРОПИЯ

1. entroopia2. entroopium

ЭНТРОПИЯ

ж. entropia Итальяно-русский словарь.2003. Синонимы: беспорядок, разлад

ЭНТРОПИЯ

Вещь серьезная и всякие там шуточки - это не для нее", (Е.Гуляковский).

ЭНТРОПИЯ

Entropie, Wärmegewicht

ЭНТРОПИЯ

Entropie, Wärmegewicht

ЭНТРОПИЯ

состояние системы материальных образований.

ЭНТРОПИЯ

энтропия беспорядок, разлад

ЭНТРОПИЯ

ж. entropy

ЭНТРОПИЯ

энтропия энтроп`ия, -и

ЭНТРОПИЯ

физ. энтрапія, жен.

ЭНТРОПИЯ

энтрапiя, -пii

ЭНТРОПИЯ

Entropie, Wärmegewicht

ЭНТРОПИЯ

энтрапiя, -пii

ЭНТРОПИЯ

• entropie

ЭНТРОПИЯ

энтропия

ЭНТРОПИЯ

энтропия

ЭНТРОПИЯ

энтропия

ЭНТРОПИЯ

энтропия

ЭНТРОПИЯ

энтропия

ЭНТРОПИЯ

энтропия

ЭНТРОПИЯ

энтропия

ЭНТРОПИЯ

энтропия

ЭНТРОПИЯ

энтрапія

ЭНТРОПИЯ

энтропия

T: 176