En termodinámica , la entropía (habitual símbolo S ) es una medida de la cantidad de formas específicas en las que un sistema termodinámico puede estar dispuesto, a menudo llevado a ser una medida de desorden o una medida de avance hacia el equilibrio termodinámico . La entropía de un sistema aislado nunca decrece, ya que los sistemas aislados evolucionan espontáneamente hacia el equilibrio termodinámico, la entropía máxima . Los sistemas que no están aisladas pueden disminuir la entropía. Desde la entropía es una función de estado , el cambio en la entropía de un sistema es la misma si un proceso de ir de un estado definido a otro es reversible o irreversible , pero los procesos irreversibles aumentar la entropía del medio ambiente.
El cambio en la entropía (Δ S ) se definió originalmente para un proceso termodinámicamente reversible como
El clásico motor de calor de Carnot
Sucursales[mostrar]
Propiedades del sistema[mostrar]
Propiedades de los materiales[mostrar]
Historia / Cultura[mostrar]
Los científicos[mostrar]
,que se encuentra de la uniforme temperatura termodinámica ( T ) de un sistema cerrado dividiendo una transferencia reversible incremental del calor en dicho sistema ( d Q ). La definición anterior a veces se llama la definición macroscópica de la entropía, ya que puede ser utilizado sin tener en cuenta cualquier imagen microscópica de los contenidos de un sistema. En la termodinámica, la entropía se ha encontrado para ser más útil en general y tiene varias otras formulaciones. La entropía se descubrió cuando se observó que la cantidad que se comporta como unafunción del Estado , como consecuencia de la segunda ley de la termodinámica . La entropía es una propiedad extensiva , pero la entropía de una sustancia pura por lo general se administra como una propiedad intensiva - ya sea entropía específica (entropía por unidad de masa) o entropía molar (entropía por mol).
La absoluta entropía ( S en lugar de Δ S ) se define más adelante, ya sea utilizando la mecánica estadística o la tercera ley de la termodinámica .
En la interpretación microscópica moderna de entropía en la mecánica estadística, la entropía es la cantidad de información adicional necesaria para especificar el estado físico exacto de un sistema, dada su especificación termodinámico. La comprensión del papel de la entropía termodinámica en diversos procesos requiere la comprensión de cómo y por qué esa información cambia ya que el sistema evoluciona desde su condición inicial. A menudo se dice que la entropía es una expresión de la enfermedad, o la aleatoriedad de un sistema, o de nuestra falta de información al respecto. La segunda ley es ahora a menudo visto como una expresión del postulado fundamental de la mecánica estadística a través de la definición moderna de la entropía. La entropía tiene la dimensión de la energía dividida por la temperatura , que tiene una unidad de julios por kelvin (J / K) en el Sistema Internacional de Unidades .
El análisis que llevó al concepto de entropía se inició con los trabajos del matemático francés Lazare Carnot , que en su artículo de 1803 Principios Fundamentales de Equilibrio y Movimiento propusieron que en cualquier máquina de las aceleraciones y choques de las partes móviles representan pérdidas del momento de la actividad . En otras palabras, en cualquier proceso natural existe una tendencia inherente hacia la disipación de energía útil. Sobre la base de este trabajo, en 1824 el hijo de Lazare Sadi Carnot publicó Reflexiones sobre la potencia motriz del fuego que postulaba que, en todos los motores de calor cada vez que " calórico ", o lo que ahora se conoce como el calor , cae a través de una diferencia de temperatura, el trabajo o la fuerza motriz pueden producirse a partir de las acciones de la "caída del calórico" entre un cuerpo caliente y fría. Él hizo la analogía con la de cómo el agua cae en una rueda de agua . Esta fue una visión anticipada de la segunda ley de la termodinámica . Carnot basado sus opiniones de calor en parte en el siglo 18 "hipótesis newtoniana" que tanto el calor y la luz eran tipos de formas indestructibles de materia, que son atraídos y repelidos por otro asunto, y en parte en las visiones contemporáneas del conde Rumford que mostraron (1789) que el calor podría ser creado por la fricción como cuando orificios de cañón están mecanizados. Carnot razonó que si el cuerpo de la sustancia de trabajo, tal como un cuerpo de de vapor, se devuelve a su estado original en el extremo de un completociclo del motor , que "no hay cambio en la condición del cuerpo de trabajo".
La primera ley de la termodinámica , formalizado en base a los experimentos de calor de fricción de James Joule en 1843, trata sobre el concepto de energía, que se conserva en todos los procesos; la primera ley, sin embargo, no es capaz de cuantificar los efectos de la fricción y disipación .
En los años 1850 y 1860, el físico alemán Rudolf Clausius se opuso a la suposición de que no hay cambio en el cuerpo de trabajo, y se entregó a este "cambio" de una interpretación matemática al cuestionar la naturaleza de la pérdida inherente de calor útil cuando el trabajo se hace, por ejemplo, calor producido por la fricción. Clausius describe la entropía como latransformación de contenido , es decir, que disipe la energía uso, de un sistema termodinámico o cuerpo de trabajo de especies químicas durante un cambio de estado . Esto fue en contraste con las concepciones anteriores, basado en las teorías de Isaac Newton , que el calor era una partícula indestructible que tenía en masa.
Más tarde, los científicos tales como Ludwig Boltzmann , Josiah Willard Gibbs y James Clerk Maxwell dio entropía una base estadística. En 1877 Boltzmann visualizó una manera probabilística para medir la entropía de un conjunto de gases ideales partículas, en la que se define la entropía a ser proporcional al logaritmo del número de microestados un gas tal podría ocupar. A partir de entonces, el problema esencial en la termodinámica estadística , es decir, de acuerdo con Erwin Schrödinger , ha sido la de determinar la distribución de una cantidad dada de energía E sobre sistemas idénticos N. Carathéodory vinculado entropía con una definición matemática de la irreversibilidad, en términos de trayectorias y integrabilidad.
Hay dos definiciones relacionadas de la entropía: la termodinámica de definición y la mecánica estadística definición.Históricamente, la definición termodinámica clásica desarrollada por primera vez, y se ha extendido más recientemente en el área de la termodinámica del no-equilibrio . La entropía se define a partir de una termodinámica clásica punto de vista, en la que los detalles de los componentes del sistema no se consideran directamente, con su comportamiento sólo a aparecer en las propiedades macroscópicamente promediados, por ejemplo, capacidad de calor. Más tarde, la entropía termodinámica se define generalmente más de una termodinámica estadística punto de vista, en la que los componentes detallados - modelados en un principio clásico, por ejemplo, partículas de Newton constituyen un gas, y más tarde la mecánica cuántica (fotones, fonones, giros, etc) - eran explícitamente considerado.
Hay muchas propiedades termodinámicas que son funciones de estado . Esto significa que en un estado termodinámico en particular (que no debe confundirse con el estado microscópico de un sistema), estas propiedades tienen un cierto valor. A menudo, si dos propiedades tienen un valor particular, entonces el estado se determina y los demás valores se establecen las propiedades. Por ejemplo, un gas ideal, a una temperatura y presión en particular, tiene un volumen particular de acuerdo con la ecuación del gas ideal. Como otro ejemplo, una sustancia pura de una sola fase a una temperatura particular uniforme y la presión (y por lo tanto un estado en particular) está en no sólo un volumen particular, sino también a una entropía en particular. que la entropía es una función de estado es uno razón es útil. En el ciclo de Carnot, los que trabajan el líquido regresa al mismo estado en una fase particular del ciclo, por lo tanto, la integral de línea de cualquier función de estado, como la entropía, a lo largo del ciclo es cero.
La entropía se define para un proceso reversible y por un sistema que, en todo momento, puede ser entendido como estar en un estado uniforme y por lo tanto a una temperatura uniforme.La reversibilidad es un ideal que algunos procesos reales se aproximan y que a menudo se presentan en ejercicios de estudio. Para un proceso reversible, la entropía se comporta como una cantidad conservada y no hay cambio en la entropía total. Más específicamente, la entropía total se conserva en un proceso reversible y no conserva en un proceso irreversible. Uno tiene que tener cuidado con los límites del sistema. Por ejemplo, en el ciclo de Carnot, mientras que el flujo de calor desde el depósito caliente hacia el depósito frío representa un aumento en la entropía, la producción de trabajo, si reversible y perfectamente almacena en algún mecanismo de almacenamiento de energía, representa una disminución de la entropía que se podría utilizar para hacer funcionar el motor térmico en sentido inverso y volver al estado anterior, por lo tanto el total de cambio de entropía es todavía cero en todo momento si todo el proceso es reversible. Cualquier proceso que no cumple con los requisitos de un proceso reversible debe ser tratada como un proceso irreversible, que suele ser una tarea compleja. Un proceso irreversible aumenta la entropía.
Calor transferencia situaciones requieren dos o más sistemas no aislados en contacto térmico. En la transferencia de calor irreversible, la energía térmica se transfiere de forma irreversible de la más alta temperatura del sistema para el sistema de temperatura más baja, y la entropía combinada de los sistemas aumenta. Cada sistema, por definición, debe tener su propia temperatura absoluta aplicable dentro de todas las áreas en cada sistema respectivo con el fin de calcular la transferencia de entropía. Por lo tanto, cuando un sistema a mayor temperaturaT H transferencias de calor d Q a un sistema de baja temperatura T C , la antigua pierde entropía d Q / T H y los últimos ganancias entropía d Q / T C . El cambio de entropía combinada esd Q / T C -D Q / T H que es positivo, lo que refleja un aumento en la entropía combinada. Cuando el cálculo de la entropía, el mismo requisito de tener una temperatura absoluta para cada sistema en contacto térmico intercambio de calor también se aplica a la variación de entropía de un sistema aislado que no tiene contacto térmico.
El concepto de entropía surgió de Rudolf Clausius 'estudio de s del ciclo de Carnot . En un ciclo de Carnot, el calor (
Cualquier método que implica la noción de entropía, la existencia misma de la cual depende de la segunda ley de la termodinámica, será, sin duda, parece que muchos descabellada, y puede repeler a los principiantes como oscuro y difícil de comprender.
Willard Gibbs , métodos gráficos de la Termodinámica de Fluidos
Rudolf Clausius(1822 - 1888), creador del concepto de entropía
) se absorbe de un "caliente" del yacimiento, isotérmica a la temperatura más alta
, y entregado isotérmicamente a una "fría 'reservorio, , a una temperatura inferior, . De acuerdo con el principio de Carnot, el trabajo se puede hacer solamente cuando hay una diferencia de temperatura, y el trabajo debe ser alguna función de la diferencia de temperatura y el calor absorbido. Carnot no distinguió entre
y , ya que estaba trabajando bajo la hipótesis errónea de que la teoría calórica era válida, y por lo tanto el calor se conserva (la suposición incorrecta de que
y son iguales) cuando, de hecho, . A través de los esfuerzos de Clausius y Kelvin , ahora se sabe que el trabajo máximo que se puede hacer es el producto de la eficiencia de Carnot y el calor absorbido en el depósito caliente:
Con el fin de derivar la eficiencia de Carnot, , Kelvin tenía que evaluar la relación entre el trabajo realizado a El calor absorbido en la expansión isotérmica con la ayuda de la ecuación de Carnot-Clapeyron que contenía una función desconocida, conocida como la función de Carnot. El hecho de que la función de Carnot podría ser la temperatura, medida a partir de cero, se sugirió por Joule en una carta a Kelvin, y esto permitió Kelvin para establecer su escala de temperatura absoluta. También se sabe que el trabajo es la diferencia en El calor absorbido en el depósito caliente y rechazada en el frío uno:
Puesto que este último es válido sobre todo el ciclo, esto dio Clausius el indicio de que en cada etapa del ciclo, el trabajo y el calor no serían iguales, sino más bien su diferencia sería ser una función de estado que se desvanecería tras la finalización del ciclo. La función de estado se denomina energía interna y se convirtió en la primera ley de la termodinámica .
Ahora igualar las dos expresiones da
Si permitimos que
incorporar el signo algebraico, esto se convierte en una suma e implica que hay una función de estado que se conserva durante un ciclo completo. Clausius llamó a esta función de estado de entropía . Se puede observar que la entropía fue descubierto a través de las matemáticas en lugar de a través de los resultados de laboratorio. Se trata de una construcción matemática y no tiene ninguna analogía física fácil. Esto hace que el concepto de algo oscuro o abstracto, similar a cómo el concepto de energía surgió.
Entonces Clausius preguntó qué pasaría si habría menos trabajo que el previsto por el principio de Carnot. El lado derecho de la primera ecuación sería el límite superior de la obra, que ahora se convierte en una desigualdad
Cuando se utiliza la segunda ecuación para expresar el trabajo como una diferencia en los calores, obtenemos o Así se da más calor OFF para el depósito frío que en el ciclo de Carnot. Si denotamos por las entropías
de los dos estados, a continuación, la desigualdad anterior se puede escribir como una disminución de la entropía . El calor residual implica que los procesos irreversibles deben haber impedido el ciclo de la realización de trabajos máximo.
La entropía (termodinámica clásica)
La definición termodinámica se desarrolló a principios de los años 1850 por Rudolf Clausius y esencialmente describe cómo medir la entropía de un sistema aislado en equilibrio termodinámico . Clausius creó el término entropía en 1865 como una extensa variable termodinámica ha demostrado ser útil en la caracterización de la ciclo de Carnot . La transferencia de calor a lo largo de los pasos de las isotermas del ciclo de Carnot se encontró que era proporcional a la temperatura de un sistema (conocido como su temperatura absoluta ). Esta relación se expresa en incrementos de entropía igual a la relación de transferencia de calor incrementales dividida por la temperatura, que se encontró a variar en el ciclo termodinámico pero eventualmente volver al mismo valor al final de cada ciclo. Por lo tanto, se encontró que era una función de estado , específicamente un estado termodinámico del sistema. Clausius escribió que "intencionalmente formó la palabra entropía lo más similar posible a la palabra de Energía", basando el término de la ἡ τροπή griega [Trope], la transformación .
Mientras Clausius basa su definición en un proceso reversible, también hay procesos irreversibles que cambian entropía. Después de la segunda ley de la termodinámica , la entropía de un hecho aislado del sistema siempre aumenta. La diferencia entre un sistema aislado y sistema cerrado es que el calor puede no fluir hacia y desde un sistema aislado, pero el flujo de calor hacia y desde un sistema cerrado es posible. Sin embargo, tanto para sistemas cerrados y aislados, y de hecho, también en sistemas abiertos, pueden ocurrir procesos termodinámicos irreversibles.
De acuerdo con la igualdad de Clausius , por un proceso cíclico reversible:
. Esto significa que la integral de línea es independiente del camino .
Así podemos definir una función de estado S llama entropía, que satisface:
Con esto sólo podemos obtener la diferencia de la entropía mediante la integración de la fórmula anterior. Para obtener el valor absoluto, necesitamos la tercera ley de la termodinámica , que establece que S = 0 en el cero absoluto de cristales perfectos.
Desde un punto de vista macroscópico, en la termodinámica clásica la entropía se interpreta como una función de estado de un sistema termodinámico : es decir, una propiedad en función sólo del estado actual del sistema, independiente de cómo se produjo ese estado a alcanzar. En cualquier proceso en el que el sistema se da por vencido Δ energía E , y su entropía disminuye en Δ S , una cantidad al menos T R Δ S de que la energía se debe dar hasta el entorno del sistema como calor inutilizable ( T R es la temperatura de la entorno externo del sistema). De lo contrario el proceso no seguirá adelante. En la termodinámica clásica, la entropía de un sistema se define sólo si se encuentra en equilibrio termodinámico .
La definición estadística fue desarrollada por Ludwig Boltzmann en 1870 mediante el análisis del comportamiento estadístico de los componentes microscópicos del sistema. Boltzmann mostró que esta definición de la entropía era equivalente a la entropía termodinámica a dentro de un número constante que desde entonces ha sido conocida como la constante de Boltzmann . En resumen, la definición termodinámica de la entropía proporciona la definición experimental de la entropía, mientras que la definición estadística de la entropía se extiende el concepto, proporcionando una explicación y una comprensión más profunda de su naturaleza.
La interpretación de la entropía en la mecánica estadística es la medida de la incertidumbre, o mixedupness en la frase de Gibbs , que se mantiene alrededor de un sistema después de sus propiedades macroscópicas observables, como la temperatura, presión y volumen, se han tenido en cuenta. Para un conjunto dado de variables macroscópicas, la entropía mide el grado en que la probabilidad de que el sistema se extiende sobre diferentes posibles microestados . En contraste con el macroestado, que caracteriza cantidades medias claramente observables, un microestado especifica todos los detalles moleculares sobre el sistema, incluyendo la posición y velocidad de cada molécula. Los dichos estados más disponibles para el sistema con una probabilidad apreciable, cuanto mayor es la entropía. En la mecánica estadística, la entropía es una medida del número de maneras en que un sistema puede estar dispuesto, a menudo toma como una medida de "trastorno" (cuanto mayor es la entropía, mayor es el trastorno). Esta definición describe la entropía como proporcional al logaritmo natural del número de posibles configuraciones microscópicas de los átomos individuales y moléculas del sistema ( microestados ) que podría dar lugar a la observada estado macroscópico (macroestado ) del sistema. La constante de proporcionalidad es la constante de Boltzmann .
En concreto, la entropía es una logarítmica medida del número de estados con probabilidad significativa de ser ocupados:
donde k B es la constante de Boltzmann , igual a 1,38065 × 10 -23 JK -1 . La adición se realiza sobre todas las posibles microestados del sistema, y p i es la probabilidad de que el sistema está en la i ª microestado. [ 16 ] Esta definición supone que el conjunto base de estados ha sido elegido de manera que no hay información sobre sus fases relativas. En un conjunto de bases diferentes, la expresión más general es
donde
es la matriz de densidad y es el logaritmo de la matriz . Esta formulación de matriz de densidad no es necesario en los casos de equilibrio térmico, siempre y cuando los estados básicos son elegidos para ser estados propios de energía. Para la mayoría de los propósitos prácticos, esto puede ser tomado como la definición fundamental de la entropía desde todas las demás fórmulas para S pueden ser matemáticamente derivan de ella, pero no viceversa.
En lo que se ha llamado el supuesto fundamental de la termodinámica estadística o el postulado fundamental de la mecánica estadística , la ocupación de cualquier microestado se asume que es igual de probable (es decir, P i = 1 / Ω donde Ω es el número de microestados); esta hipótesis se suele justificar por un sistema aislado en equilibrio. Entonces la ecuación anterior se reduce a:
En la termodinámica, un sistema de este tipo es uno en el que el volumen, número de moléculas, y la energía interna son fijos (el conjunto microcanónica ).
La interpretación más general de la entropía es como una medida de nuestra incertidumbre acerca de un sistema. El estado de equilibrio de un sistema maximiza la entropía, porque hemos perdido toda la información acerca de las condiciones iniciales a excepción de las variables conservadas; la maximización de la entropía maximiza nuestra ignorancia acerca de los detalles del sistema. Esta incertidumbre no es del tipo subjetiva cotidiana, sino más bien la incertidumbre inherente al método experimental y modelo interpretativo.
El modelo interpretativa tiene un papel central en la determinación de la entropía. El calificador "para un conjunto dado de variables macroscópicas" anterior tiene implicaciones profundas: si dos observadores utilizan diferentes conjuntos de variables macroscópicas, observarán diferentes entropías. Por ejemplo, si un observador utiliza las variables U, V y W, y el observador B utiliza U, V, W, X, y luego, cambiando X, el observador B puede causar un efecto que parece una violación de la segunda ley de la termodinámica al observador A. En otras palabras: el conjunto de variables macroscópicas que se elija debe incluir todo lo que puede cambiar en el experimento, de lo contrario se podría ver la disminución de entropía!
La entropía se puede definir para cualquier procesos de Markov con la dinámica reversibles y el equilibrio detallada propiedad.
En 1896 de Boltzmann Conferencias sobre Teoría de los gases , demostró que esta expresión da una medida de la entropía de los sistemas de átomos y moléculas en la fase de gas, lo que proporciona una medida de la entropía de la termodinámica clásica.
La entropía es la integral oscura mencionados arriba inesperado y, para algunos, que surge directamente desde el ciclo de Carnot. Es de calor reversible dividida por la temperatura. Lo es, notablemente, en función del Estado y es fundamental y muy útil.
En un sistema termodinámico , presión, densidad, temperatura y tienden a ser uniforme en el tiempo debido a este estado de equilibrio tiene mayorprobabilidad (más posibles combinaciones de microestados ) que cualquier otro; ver la mecánica estadística . A modo de ejemplo, un vaso de agua helada en el aire a temperatura ambiente, la diferencia de temperatura entre un cuarto caliente (el entorno) y el vidrio frío de hielo y agua (el sistema y no parte de la habitación), comienza a ser igualado como partes de la energía térmica de los alrededores cálidas extienden al sistema refrigerador de hielo y agua. Con el tiempo la temperatura del vidrio y su contenido y la temperatura de la habitación llegan a ser iguales. La entropía de la habitación ha disminuido como parte de su energía se ha dispersado al hielo y agua. Sin embargo, según lo calculado en el ejemplo, la entropía del sistema de hielo y agua ha aumentado más que la entropía del ambiente circundante ha disminuido. En un sistema aislado , como la habitación y el agua de hielo se toman juntos, la dispersión de energía a partir de más caliente al más frío siempre resulta en un aumento neto en la entropía. Por lo tanto, cuando el "universo" de la habitación y sistema de agua de hielo ha alcanzado un equilibrio de temperatura, el cambio de entropía desde el estado inicial está en un máximo. La entropía de la sistema termodinámico es una medida de hasta qué punto la ecualización ha progresado.
La entropía termodinámica es un no conservada función estatal que es de gran importancia en las ciencias de la física y la química . Históricamente, el concepto de entropía evolucionado con el fin de explicar por qué algunos procesos (permitidos por las leyes de conservación) se producen de forma espontánea mientras que sus inversiones de tiempo (también permitidos por las leyes de conservación) no lo hacen; sistemas tienden a progresar en la dirección de aumentar la entropía. Para los sistemas aislados , la entropía nunca disminuye. Este hecho tiene varias consecuencias importantes en la ciencia : primero, prohíbe " movimiento perpetuo máquinas "; y segundo, que implica la flecha de la entropíatiene la misma dirección que la flecha del tiempo . El aumento de la entropía corresponden a cambios irreversibles en el sistema, ya que parte de la energía se consume en forma de calor, lo que limita la cantidad de trabajo que un sistema puede hacer.
A diferencia de muchas otras funciones de estado, la entropía no puede ser observado directamente, sino que debe calcularse. La entropía se puede calcular para una sustancia como la entropía molar estándar de cero absoluto (también conocida como entropía absoluta) o como una diferencia en la entropía de algún otro estado de referencia que se define como cero entropía. La entropía tiene la dimensión de la energía dividida por la temperatura, que tiene una unidad de julios por kelvin (J / K) en el Sistema Internacional de Unidades . Si bien estos son las mismas unidades que la capacidad de calor , los dos conceptos son distintos. entropía no es una cantidad conservada: por ejemplo, en un sistema aislado con la temperatura no uniforme, el calor puede fluir de forma irreversible y la temperatura de ser más uniforme, tal que la entropía aumenta. La segunda ley de la termodinámica , establece que un sistema cerrado tiene entropía que puede aumentar o permanecer constante lo contrario. Las reacciones químicas causan cambios en la entropía y la entropía juega un papel importante en la determinación de en qué dirección una reacción química tiene lugar espontáneamente.
Una definición de diccionario de la entropía es que se trata de "una medida de la energía térmica por unidad de temperatura que no está disponible para el trabajo útil". Por ejemplo, una sustancia a temperatura uniforme es a la máxima entropía y no puede conducir un motor térmico. Una sustancia a temperatura no uniforme es a una entropía menor (que si se permite que la distribución del calor para igualar) y parte de la energía térmica puede conducir un motor térmico.
Un caso especial de aumento de entropía, la entropía de mezclado , se produce cuando se mezclan dos o más sustancias diferentes. Si las sustancias son a la misma temperatura y la presión, no habrá ningún cambio neto de calor o trabajo - el cambio de entropía será enteramente debido a la mezcla de las diferentes sustancias. A nivel mecánico estadístico, esto resulta debido al cambio en el volumen disponible por partícula con mezcla.
Segunda ley de la termodinámica
La segunda ley de la termodinámica establece que, en general, la entropía total de cualquier sistema no va a disminuir otra que mediante el aumento de la entropía de algún otro sistema.Por lo tanto, en un sistema aislado de su entorno, la entropía del sistema que tenderá a no disminuir. De ello se deduce que el calor no fluirá desde un cuerpo más frío a un cuerpo más caliente sin la aplicación de trabajo (la imposición de orden) para el cuerpo más frío. En segundo lugar, es imposible para cualquier dispositivo que funciona en un ciclo para producir trabajo en red desde un único depósito de la temperatura; la producción de red requiere un flujo de calor desde un depósito más caliente a un depósito más frío, o un solo depósito de expansión sometidos a enfriamiento adiabático , que realiza el trabajo adiabático . Como resultado, no hay posibilidad de un movimiento perpetuo sistema. De ello se deduce que una reducción en el aumento de entropía en un proceso especificado, tal como una reacción química , significa que es energéticamente más eficiente.
Se desprende de la segunda ley de la termodinámica que la entropía de un sistema que no está aislado puede disminuir. Un acondicionador de aire , por ejemplo, puede enfriar el aire en una habitación, lo que reduce la entropía del aire de ese sistema. El calor expulsado de la sala (el sistema), que los medios de transporte de aire acondicionado y las descargas al aire exterior, siempre va a hacer una mayor contribución a la entropía del medio ambiente que será la disminución de la entropía del aire de ese sistema. Por lo tanto, el total de la entropía de la habitación, más la entropía de dicho ambiente, de acuerdo con la segunda ley de la termodinámica.
En mecánica, la segunda ley en conjunto con la relación termodinámica fundamental establece límites a la capacidad de un sistema para hacer un trabajo útil . El cambio de entropía de un sistema a temperatura T absorber una cantidad infinitesimal de calor δ q de una manera reversible, es dada por δq / T . Más explícitamente, una energía T R S no está disponible para realizar trabajo útil, donde T R es la temperatura de los más fríos accesible depósito o el disipador de calor externo al sistema. Para una mayor discusión, véase exergía .
Mecánica estadística demuestra que la entropía se rige por probabilidad, permitiendo de este modo una disminución en el trastorno incluso en un sistema aislado. Aunque esto es posible, tal evento tiene una pequeña probabilidad de ocurrir, por lo que es poco probable.
Relación termodinámica fundamental
La entropía de un sistema depende de su energía interna y los parámetros externos, tales como el volumen. En el límite termodinámico este hecho conduce a una ecuación que relaciona el cambio en la energía interna a los cambios en la entropía y los parámetros externos. Esta relación se conoce como la relación termodinámica fundamental. Si el volumen es el único parámetro externo, esta relación es:
Un diagrama de temperatura-entropía para el vapor. El eje vertical representa la temperatura uniforme, y el eje horizontal representa la entropía específica. Cada línea oscura en el gráfico representa la presión constante, y éstos forman una malla con líneas de color gris claro de volumen constante. (Azul marino es agua líquida, de color azul claro está hirviendo el agua, y se desmaya-azul es de vapor. Gris-azul representa el agua líquida supercrítica.)
Dado que la energía interna se fija cuando uno especifica la entropía y el volumen, esta relación es válida incluso si el cambio de un estado de equilibrio térmico a otro con la entropía infinitesimalmente más grande y el volumen que pasa de una manera no-cuasiestático (por lo que durante este cambio, la sistema puede ser muy lejos de equilibrio térmico y a continuación, no puede existir la entropía, la presión y la temperatura).
La relación termodinámica fundamental implica muchas identidades termodinámicas que son válidos en general, independientes de los detalles microscópicos del sistema. Ejemplos importantes son las relaciones de Maxwell y las relaciones entre las capacidades caloríficas .
La entropía termodinámica es central en la termodinámica química , lo que permite cambios a cuantificar y el resultado de las reacciones predicho. La segunda ley de la termodinámica dice que la entropía de un sistema aislado - la combinación de un subsistema en estudio y sus alrededores - aumenta durante todo el proceso físico químico espontáneo y. La ecuación de Clausius de δ q rev / T = Δ S presenta la medición de la variación de entropía, Δ S . Cambio de entropía describe la dirección y cuantifica la magnitud de los cambios simples, como la transferencia de calor entre los sistemas - siempre desde más caliente al refrigerador espontáneamente.
Por tanto, la entropía termodinámica tiene la dimensión de la energía dividida por la temperatura, y la unidad joule por kelvin (J / K) en el Sistema Internacional de Unidades (SI).
La entropía termodinámica es una extensa propiedad, lo que significa que se escala con el tamaño o el alcance de un sistema. En muchos procesos es útil para especificar la entropía como una propiedad intensiva independiente del tamaño, como una característica entropía específica del tipo de sistema estudiado. Entropía específica se puede expresar con relación a una unidad de masa, por lo general el kilogramo (unidad: J kg -1 K -1 ). Alternativamente, en química, también se refiere a un mol de sustancia, en cuyo caso se llama la entropía molar con una unidad de J mol -1 K -1 .
Por lo tanto, cuando un mol de sustancia a aproximadamente 0 K es calentado por sus alrededores a 298 K , la suma de los valores incrementales de q rev / T constituyen cada entropía molar estándar del compuesto, un indicador de la cantidad de energía del elemento o almacenados por una sustancia a 298 K . el cambio de entropía mide también la mezcla de sustancias como la suma de sus cantidades relativas en la mezcla final.
La entropía es igualmente esencial en la predicción de la medida y la dirección de reacciones químicas complejas. Para tales aplicaciones, Δ S debe ser incorporado en una expresión que incluye tanto el sistema y sus alrededores, Δ S universo = Δ S alrededores + Δ S sistema . Esta expresión se convierte, a través de algunos pasos, la energía libre de Gibbs ecuación para reactivos y productos en el sistema: Δ T [Gibbs cambio de energía libre del sistema] = Δ H [el cambio de entalpía] - T Δ S [el cambio de entropía] .
En ingeniería química , los principios de la termodinámica se aplican comúnmente a " sistemas abiertos ", es decir, aquellos en los que el calor, el trabajo , y la masa de flujo a través de la frontera del sistema. En un sistema en el que hay flujos de tanto calor (
) y el trabajo, es decir, ( trabajo en el eje ) y P (dV / dt) (trabajo presión-volumen), a través de los límites del sistema, el flujo de calor, pero no el flujo de trabajo, provoca un cambio en la entropía del sistema. Esta tasa de cambio de entropía es
donde T es el absolutotemperatura termodinámica del sistema en el punto del flujo de calor. Si, además, hay flujos de masa a través de los límites del sistema, la entropía total del sistema también va a cambiar debido a este flujo de convección.
Para derivar una ecuación balanceada de entropía generalizada, comenzamos con la ecuación del balance general para el cambio en cualquier cantidad extensa Θ en un sistema termodinámico , una cantidad que puede ser conservado o bien, como la energía, o no conservados, como la entropía. La expresión básica equilibrio genérico indica que dΘ / dt, es decir, la velocidad de cambio de Θ en el sistema, es igual a la velocidad a la que Θ entra en el sistema en los límites, menos la velocidad a la que Θ sale del sistema a través de los límites del sistema, más la velocidad a la que Θ se genera dentro del sistema. Usando esta ecuación de balance genérico, con respecto a la tasa de cambio con el tiempo de la extensa cantidad de entropía S , la ecuación de balance de entropía para un sistema termodinámico abierto es:
Durante el estado de equilibrio de funcionamiento continuo, un balance de entropía aplicada a un sistema abierto en cuenta los cambios de entropía del sistema relacionados con el flujo de calor y el flujo de masa a través de la frontera del sistema.
donde
= La tasa neta de flujo de la entropía debido a los flujos de masas de entrada y salida del sistema (donde = entropía por unidad de masa).
= La tasa de flujo de la entropía debido al flujo de calor a través de los límites del sistema.
= La tasa de producción de entropía en el sistema.
Tenga en cuenta, también, que si hay múltiples flujos de calor, el término
es para ser sustituido por donde es el flujo de calor y es la temperatura a la j-ésima puerto de flujo de calor en el sistema.
La ecuación fundamental de la termodinámica de un sistema que contiene n especies constituyentes, con la i -ésima especie que tiene N i partículas es, con condiciones adicionales:
U es la energía interna, T es la temperatura, P es la presión, V es el volumen,
y N i son el potencial químico y el número de moléculas de la sustancia química, y Q son potencial eléctricoy la carga, v y p son la velocidad y el impulso.
Despejando el cambio en la entropía se obtiene:
Hay un cambio minúsculo en la energía interna de cualquier cambio en la entropía (ds cambiarán por 1 / T * dU). Pero en teoría, la entropía de un sistema se puede cambiar sin cambiar su energía. Esto se hace manteniendo constantes todas las variables, incluyendo la temperatura (isotérmica) y la entropía (adiabática). Eso es fácil de ver, pero por lo general la energía del sistema va a cambiar. por ejemplo, usted puede tratar de mantener constante el volumen pero usted siempre funcionan en el sistema, y el trabajo que cambia la energía. Otros potenciales tales como el potencial gravitatorio también pueden tenerse en cuenta.
Para ciertas transformaciones simples en los sistemas de composición constante, los cambios de entropía son dadas por fórmulas simples.
Para la expansión (o compresión) de un gas ideal a partir de un volumen inicial
y la presión a un volumen final y la presión a cualquier temperatura constante, el cambio de entropía viene dado por:
Aquí
es el número de moles de gas y es la constante de los gases ideales . Estas ecuaciones se aplican también para la expansión en un vacío finito o un proceso de estrangulación , donde la temperatura, energía interna y la entalpía para un gas ideal se mantienen constantes.
Para el calentamiento (o enfriamiento) de cualquier sistema (gas, líquido o sólido) a presión constante desde una temperatura inicial
hasta una temperatura final , el cambio de entropía es
.
a condición de que la presión constante molar de capacidad de calor (o calor específico) C P es constante y que ninguna transición de fase se produce en este intervalo de temperatura.
De manera similar a volumen constante, la variación de entropía es
,
donde el volumen constante capacidad calorífica C V es constante y no hay cambio de fase.
A bajas temperaturas cercanas al cero absoluto, capacidades caloríficas de los sólidos caen rápidamente fuera a cerca de cero, por lo que la asunción de la capacidad calorífica constante no se aplica.
Desde la entropía es una función de estado , el cambio de entropía de cualquier proceso en el que la temperatura y el volumen varían tanto es el mismo que para un camino dividido en dos pasos - de calentamiento en volumen y expansión a temperatura constante constante. Para un gas ideal, el cambio total de la entropía es
.
Del mismo modo, si la temperatura y la presión de un gas ideal tanto varían,
.
Reversibles transiciones de fase se producen a temperatura y presión constantes. El calor reversible es el cambio de entalpía de la transición, y el cambio de entropía es el cambio de entalpía dividido por la temperatura termodinámica. Para la fusión ( fusión ) de un sólido a un líquido en el punto de fusión T m , la entropía de fusión es
.
De manera similar para la vaporización de un líquido a un gas en el punto de ebullición T b , la entropía de vaporización es
.
Como un aspecto fundamental de la termodinámica y la física, varios enfoques diferentes a la entropía más allá de Clausius y Boltzmann son válidos.
La siguiente es una lista de definiciones adicionales de entropía de una colección de libros de texto:
una medida de la dispersión de energía a una temperatura específica.
una medida del desorden en el universo o de la disponibilidad de la energía en un sistema para hacer el trabajo.
una medida de la de un sistema de energía térmica por unidad de temperatura que no está disponible para hacer útil el trabajo .
En la definición de Boltzmann, la entropía es una medida del número de estados posibles microscópicos (o microestados) de un sistema en equilibrio termodinámico. En consonancia con la definición de Boltzmann, la segunda ley de la termodinámica tiene que ser reformulado como tal que la entropía aumenta con el tiempo, aunque el principio básico sigue siendo el mismo.
Entropía a menudo se ha asociado en términos generales con la cantidad de orden , desorden , y / o el caos en un sistema termodinámico . La descripción cualitativa tradicional de la entropía es que se refiere a los cambios en el status quo del sistema y es una medida de "desorden molecular" y la cantidad de energía desperdiciada en una transformación de la energía dinámica de un estado o forma a otra. En este sentido, varios autores recientes han derivado fórmulas exactas de entropía para explicar y medir el desorden y el orden en las asambleas atómicas y moleculares. Una de las fórmulas para la entropía / trastorno más simples es la que se deriva en 1984 por físico termodinámico Peter Landsberg, basado en una combinación de la termodinámica y teoría de la información argumentos. Él sostiene que cuando las restricciones operan en un sistema, de tal forma que impide la entrada de uno o más de sus posibles estados o permitidos, en contraste con sus estados prohibidos, la medida de la cantidad total de "desorden" en el sistema está dada por : [ 40 ] [ 41 ]
Del mismo modo, la cantidad total de "orden" en el sistema viene dada por:
¿En qué C D es la capacidad de "desorden" del sistema, que es la entropía de las piezas contenidas en el conjunto permitido, C I es la capacidad de "información" del sistema, una expresión similar a la de Shannon capacidad del canal , y C O es la capacidad de "orden" del sistema.
Entropía (dispersión de energía)
El concepto de entropía se puede describir cualitativamente como una medida de dispersión de energía a una temperatura específica. Términos similares han estado en uso desde temprano en la historia de la termodinámica clásica , y con el desarrollo de la termodinámica estadística y la teoría cuántica , la entropía cambios se han descrito en términos de la mezcla o del "difundir" de la energía total de cada constituyente de un sistema a través de sus niveles de energía cuantificados particulares.
Las ambigüedades en los términos desorden y el caos , que por lo general tienen significados opuestos directamente al equilibrio, contribuir a la confusión generalizada y obstaculizando la comprensión de la entropía para la mayoría de los estudiantes. A medida que la segunda ley de la termodinámica muestra, en un sistema aislado partes internas a diferentes temperaturas tenderá a ajustar a una sola temperatura uniforme y por tanto producen equilibrio. Un enfoque educativo recientemente desarrollado evita términos ambiguos y describe tales propagación de energía en forma de dispersión, lo que conduce a la pérdida de los diferenciales necesarias para el trabajo a pesar de que la energía total permanece constante de acuerdo con la primera ley de la termodinámica (comparar discusión en la siguiente sección). Químico físico Peter Atkins , por ejemplo, que previamente escribió sobre la dispersión que conduce a un estado desordenado, ahora escribe que "los cambios espontáneos siempre van acompañados de una dispersión de la energía".
A raíz de lo anterior, es posible (en un contexto térmica) a considerar la entropía como un indicador o medida de la efectividad o utilidad de una cantidad particular de energía. Esto es porque la energía suministre a una temperatura alta (es decir, con baja entropía) tiende a ser más útil que la misma cantidad de energía disponible a la temperatura ambiente. La mezcla de una parcela en caliente de un fluido con una fría produce una parcela de temperatura intermedia, en la que el aumento global de la entropía representa una "pérdida" que nunca puede ser reemplazado.
Por lo tanto, el hecho de que la entropía del universo está en constante aumento, significa que su energía total es cada vez menos útil: el tiempo, esto dará lugar a la " muerte térmica del Universo ".
Una definición de la entropía basado enteramente en la relación de accesibilidad adiabática entre estados de equilibrio fue dada por EHLieb y J. Yngvason en 1999. Este enfoque tiene varias predecesores, incluyendo el trabajo pionero de Constantin Carathéodory a partir de 1909 y la monografía de R. Giles a partir de 1964. En el marco de Lieb y Yngvason uno comienza por recoger, por un importe unitario de la sustancia considerada, dos estados de referencia
, y de tal manera que el último es adiabáticamente accesible desde la primera, pero no al revés. Definición de las entropías de los estados de referencia a ser 0 y 1, respectivamente, la entropía de un estado
se define como el número más grande de tal manera quees accesible adiabáticamente desde un estado compuesto que consiste en una cantidad en el estado y una cantidad complementaria
, en el estado . Un resultado simple pero importante dentro de esta configuración es que la entropía se determina de forma única, aparte de una elección de la unidad y una constante aditiva para cada elemento químico, por las siguientes propiedades: Es monotónica con respecto a la relación de la accesibilidad adiabática, aditivo de compuesto sistemas, y la considerable escala.
En la mecánica cuántica estadística , el concepto de entropía fue desarrollada por John von Neumann y se conoce generalmente como " entropía de von Neumann ",
donde ρ es la matriz de densidad y Tr es la traza del operador.
Esto mantiene el principio de correspondencia , porque en el límite clásico , cuando las fases entre los estados básicos utilizados para las probabilidades clásicas son puramente aleatoria, esta expresión es equivalente a la definición clásica familiar de la entropía,
,
es decir, en una base tal densidad de la matriz es diagonal.
Von Neumann estableció un marco matemático riguroso para la mecánica cuántica con su trabajo Mathematische Grundlagen der Quantenmechanik . Se proporciona en este trabajo una teoría de la medición, donde la noción usual de función colapso de onda se describe como un proceso irreversible (la llamada de von Neumann o medición proyectiva). El uso de este concepto, en conjunción con la matriz de densidad extendió el concepto clásico de la entropía en el dominio cuántico.
Entropía (teoría de la información) , la entropía en termodinámica y la teoría de la información , y la entropía de la incertidumbre
Cuando se ve en términos de teoría de la información, la función de estado de entropía es simplemente la cantidad de información (en el sentido de Shannon) que sería necesaria para especificar el microestado completa del sistema. Esto se deja sin especificar por la descripción macroscópica.
En teoría de la información , la entropía es la medida de la cantidad de información que falta antes de la recepción y se refiere a veces como la entropía de Shannon . entropía de Shannon es un concepto amplio y general que encuentra aplicaciones en la teoría de la información, así como la termodinámica . Fue ideado originalmente por Claude Shannon en 1948 para estudiar la cantidad de información en un mensaje transmitido. La definición de la entropía de información es, sin embargo, bastante general, y se expresa en términos de un conjunto discreto de probabilidades p i de manera que
Pensé en llamarlo la "información", pero la palabra estaba acostumbrado demasiado, así que decidí llamarlo "incertidumbre".[...] Von Neumann me dijo, 'Deberías llamarlo entropía, por dos razones. En primer lugar, su función de incertidumbre se ha utilizado en la mecánica estadística bajo ese nombre, por lo que ya cuenta con un nombre. En segundo lugar, y más importante, nadie sabe lo que realmente es la entropía, por lo que en un debate que siempre tendrá la ventaja '.
Conversación entre Claude Shannon y John von Neumann en relación con qué nombre dar a la atenuación en las señales de teléfono de línea
En el caso de los mensajes transmitidos, estas probabilidades eran las probabilidades de que un mensaje en particular se transmite en realidad, y la entropía del sistema de mensaje era una medida de la cantidad media de información en un mensaje. Para el caso de las probabilidades iguales (es decir, cada mensaje es igualmente probable), la entropía de Shannon (en bits) es sólo el número de preguntas sí / no necesarios para determinar el contenido del mensaje.
La cuestión de la relación entre la entropía de la información y la entropía termodinámica es un tema debatido. Aunque la mayoría de los autores argumentan que existe un vínculo entre los dos, algunos argumentan que no tienen nada que ver entre sí.
Las expresiones para las dos entropías son similares. La información la entropía H por la igualdad de probabilidades p i = p = 1 / n es
donde k es una constante que determina las unidades de entropía. Hay muchas formas de demostrar la equivalencia de "entropía de la información" y "la entropía física", es decir, la equivalencia de "entropía de Shannon" y "entropía de Boltzmann". Sin embargo, algunos autores abogan por dejar caer la palabra entropía para la función H de la teoría de la información y el uso de Shannon otro término "incertidumbre" en su lugar.
Aunque el concepto de entropía era originalmente una construcción termodinámico, se ha adaptado en otros campos de estudio, incluyendo la teoría de la información , psicodinámica ,termoeconomía / economía ecológica y la evolución .
Unidad de entropía - una unidad no SI de entropía termodinámica, denotado generalmente "eu" y equivale a una caloría por Kelvin, por mol o 4.184 julios . por Kelvin por mol
Gibbs entropía - la entropía mecánica estadística habitual de un sistema termodinámico.
Boltzmann de la entropía - un tipo de entropía Gibbs, que deja de lado las correlaciones estadísticas internas en la distribución global de las partículas.
Tsallis entropía - una generalización de la entropía estándar de Boltzmann-Gibbs.
Entropía molar estándar - es el contenido de entropía de un mol de sustancia, en condiciones de temperatura y presión estándar.
Entropía residual - la entropía presente después de una sustancia se enfría arbitrariamente cerca del cero absoluto .
La entropía de mezcla - el cambio en la entropía cuando dos diferentes sustancias químicas o componentes se mezclan.
Entropía Loop - es la entropía perdido a reunir a dos residuos de un polímero dentro de una distancia determinada.
Entropía conformacional - es la entropía asociada con la disposición física de un polímero de cadena que asume un compacto o globular estado en solución.
Fuerza entrópica - una fuerza microscópica o reacción tendencia relacionada con cambios en la organización del sistema, consideraciones de fricción molecular y variaciones estadísticas.
Entropía libre - un análogo potencial termodinámico entrópica a la energía libre.
Entrópico explosión - una explosión en el que los reactivos se someten a un gran cambio en el volumen sin liberar una gran cantidad de calor.
Cambio de entropía - un cambio en entropía dS entre dos estados de equilibrio está dado por el calor transferido dQ rev dividido por la temperatura absoluta T del sistema en este intervalo.
Sackur-Tetrodo entropía - la entropía de un gas ideal monoatómico clásica determinada mediante consideraciones cuánticas.
La entropía es la única cantidad en las ciencias físicas que parece implicar una dirección particular de preparación, a veces llamado un flecha del tiempo . Como pasa el tiempo, la segunda ley de la termodinámica dice que la entropía de un sistema aislado nunca decrece. Por lo tanto, desde esta perspectiva, la medición de la entropía es considerado como una especie de reloj.
La muerte térmica del universo
Desde un universo finito es un sistema aislado, la segunda ley de la termodinámica establece que la entropía total es cada vez mayor. Se ha especulado, desde el siglo 19, que el universo está condenado a una muerte térmica en la que toda la energía termina como una distribución homogénea de la energía térmica, por lo que no es obra puede ser extraído de cualquier fuente.
Si el universo se considera que tienen generalmente creciente entropía, entonces - como Sir Roger Penrose ha señalado - la gravedad juega un papel importante en el aumento porque la gravedad hace que la materia dispersa a acumularse en las estrellas, que colapso, finalmente, en los agujeros negros . La entropía de un agujero negro es proporcional al área de superficie del horizonte de eventos del agujero negro. Jacob Bekenstein y Stephen Hawking han demostrado que los agujeros negros tienen la entropía máxima posible de cualquier objeto del mismo tamaño. Esto las convierte en puntos finales probables de todos los procesos de entropía creciente, si son cuestión totalmente eficaz y trampas de energía. Hawking ha, sin embargo, cambió recientemente su postura en este aspecto, en un papel que redefinió en gran medida los horizontes de sucesos de los agujeros negros, y sugirió que el escape de energía de los agujeros negros podría ser posible debido a la actividad cuántica.
El papel de la entropía en la cosmología sigue siendo un tema controvertido desde los tiempos de Ludwig Boltzmann. Trabajos recientes han arrojado algunas dudas sobre la hipótesis de la muerte de calor y la aplicabilidad de cualquier modelo termodinámico sencillo para el universo en general. Aunque la entropía hace aumento en el modelo de un universo en expansión, la entropía máxima posible se eleva mucho más rápidamente, moviendo el universo más lejos de la muerte de calor con el tiempo, no más cerca. Esto se traduce en una "brecha de la entropía" empujando el sistema más lejos del equilibrio postulada muerte térmica. Otros factores que complican, como la densidad de energía del vacío y macroscópicos cuánticos efectos, son difíciles de conciliar con los modelos termodinámicos, por lo que cualquier predicciones de la termodinámica a gran escala extremadamente difícil.
La brecha de la entropía se cree ampliamente que se ha abierto inicialmente por la temprana rápida expansión exponencial del universo.
Salta hacia arriba^ máquina A en este contexto incluye los dispositivos de ingeniería así como los organismos biológicos.