Relaciones de Maxwell

March 22, 2018 | Author: Sariana Sanchez De Maio | Category: Entropy, Thermodynamics, Classical Mechanics, Physical Quantities, Mathematical Physics


Comments



Description

Relaciones de MaxwellLas ecuaciones que relacionan las derivadas parciales de las propiedades , , y de un sistema compresible simple entre sí se conocen como relaciones de Maxwell. Se obtienen a partir de las cuatro ecuaciones de Gibbs y se basan en las propiedades de la diferenciales exactas. Son de mucha utilidad ya que permiten obtener de manera indirecta, es decir sin la necesidad de medir experimentalmente, algunas propiedades termodinámicas. De las relaciones de Gibbs se tiene (211) (212) Las otras relaciones de Gibss se basan en dos nuevas combinaciones de propiedades: la función del Helmholtz como: y la función de Gibbs definidas (213) (214) Al diferenciar se obtiene Si se simplifican las relaciones anteriores con las ecuaciones (211) y (212) se obtienen las otras relaciones de Gibbs para sistemas compresibles simples. (215) (216) Un examen cuidadoso de las cuatro relaciones de Gibbs muestra que tienen la forma de la ecuación con puesto que y son propiedades y en consecuencia, tienen diferenciales exactas. De tal suerte que podemos escribir: (217) (218) (219) (220) Éstas se llaman las relaciones de Maxwell. Son de gran valor en la termodinámica por que brindan un medio para determinar el cambio de entalpía magnéticos y otro tipo. . otras relaciones similares se describen con la misma facilidad para sistemas no simples como los que incluyen efectos electrolíticos. En este caso "sat" indica que la derivada es la pendiente de la curva de saturación sobre un diagrama P-T en un punto determinado por una temperatura constante durante el cambio de fase. entonces el segundo término de la relación de Maxwell mostrada es determinado solo por la temperatura. v y T. Sin embargo. Ecuaciones de clapeyron La ecuación de Clapeyron es una de las tantas aplicaciones de las relaciones de Maxwell y permite determinar los cambios en la entalpia asociados con el cambio de fase (ejemplo: entalpia de vaporización hfg) a partir del conocimiento de P. a partir de la medición de los cambios en las propiedades . y . Considere la siguiente relación de Maxwell: Durante un cambio de fase manteniendo la temperatura fija. Note que las relaciones de Maxwell presentadas se limitan a sistemas compresibles simples. por lo que puede escribirse como una derivada total: Recordando que una derivada total es la pendiente una función. la presión es independiente del volumen especifico y solo se determina por la temperatura.que no es posible medir directamente. Entonces: Integrando para un proceso isotérmico de dos estados en saturación. nombrada así por el físico e ingeniero francés Benoit Paul Émile Clapeyron . obtenemos la Ecuación de Clapeyron. En consecuencia. Sustituyendo la Ec. integrando la relación de Gibbs para dh queda Donde la integral dP=0 porque P=ctte. por ejemplo en el cambio de fase líquido-vapor: y ¿Quieres vender un Local? Anuncios Clasificados con Fotos e información. 1. 2 en la Ec. Publica gratis! Roloeganga.comEnlaces patrocinados Este proceso la presión también permanece constante. simplemente graficando la presión en función de la temperatura y luego obtener la pendiente de esa curva para una temperatura específica Tx. .-La Ecuación de Clapeyron permite determinar la entalpía de vaporización hfg a una temperatura determinada midiendo simplemente la pendiente de la curva de saturación en un diagrama PT y conociendo el volumen especifico vfg del liquido saturado y del vapor saturado a la temperatura dada. -Es decir que para cualquier sustancia podemos conocer su entalpia de vaporización. http://joule.Esta ecuación es aplicable a cualquier proceso de cambio de fase que suceda a temperatura y presión constante y se expresa en una forma general como: DONDE LOS ÍNDICES 1 Y 2 INDICAN LAS DOS FASES.qfa.uam.es/beta-2.0/temario/tema5/tema5.php buscar urgente . siempre se originan de la derivada segunda de algún potencial termodinámico. conviene empezar notando que las variables independientes en principio son y . sus derivadas segundas no deben depender del orden que se escoja para derivar. habíamos notado que Las identidades de este tipo se conocen como relaciones de Maxwell. Habíamos definido esta transformación como potencial de Gibbs para el cual la expresión diferencial resulta . sino fijar la atención en el hecho de que partiendo de la representación energía se transformó en este caso y .Relaciones de Maxwell Al comienzo de este curso habíamos visto que como es función de estado. Aunque existen reglas mnemotécnicas para recordar estas relaciones. No es necesario recordar nada de memoria. lo que sugiere pensar en el potencial termodinámico para el cual ésas son las variables naturales. Si por ejemplo nos interesa estudiar . de modo que esto es lo que en realidad debemos tener presente. En particular. ya que estamos derivando siempre una variable intensiva respecto de la correspondiente extensiva o viceversa.de manera que Está claro que cuando la derivada que se desea analizar es o o no habrá ninguna relación de este tipo. Hay algunas derivadas que a primera vista no parecen tener sustitución. ya que y no pueden ser variables naturales de ningún potencial termodinámico. Sin embargo. como . y las relaciones de Maxwell sólo pueden establecerse para variables que se ``entrecruzan''. para el cual la expresión diferencial toma la forma de donde se obtiene . y ahora sí reconocemos y como las variables propias de la energía libre de Helmholtz. es decir. Tampoco incluye la energía potencial que el cuerpo pueda tener por su localización en un campo gravitacional o electrostático externo.html Energía interna En física. http://www. de las sumas de las energías cinéticas de las individualidades que lo forman respecto al centro de masas del sistema. .famaf. Más concretamente.ar/~gcas/termo1/clases/node47.de manera que Vale la pena notar que todas las relaciones de Maxwell pueden obtenerse a partir del formalismo que conocíamos de Física II.edu.1  La energía interna no incluye la energía cinética traslacional o rotacional del sistema como un todo. Lo que hemos hecho ahora no ha sido agregar información: simplemente hemos introducido herramientas que nos permiten agilizar las cuentas.unc. la energía interna (U) de un sistema intenta ser un reflejo de la energía a escala microscópica. que es la energía potencial asociada a las interacciones entre estas individualidades. es la suma de:  la energía cinética interna. y de la energía potencial interna. por lo que se dice que es una función de estado. la variación de energía interna es independiente del proceso.Todo cuerpo posee una energía acumulada en su interior equivalente a la energía cinética interna más la energía potencial interna. Contenido [ocultar] 1 El enfoque termodinámico: la ecuación fundamental 2 Algunas variaciones de la energía interna 3 Véase también 4 Referencias [editar]El enfoque termodinámico: la ecuación fundamental En termodinámica se deduce la existencia2 de una ecuación de la forma conocida como ecuación fundamental en representación energética. en un sistema cerrado (o sea. sólo depende del estado inicial y final.  En un gas ideal monoatómico bastará con considerar la energía cinética de traslación de sus moléculas. Si pensamos en constituyentes atómicos o moleculares. rotación y vibración). En un gas ideal poliatómico. será el resultado de la suma de la energía cinéticade las moléculas o átomos que constituyen el sistema (de sus energías de traslación. que depende del proceso. deberemos considerar además la energía vibracional y rotacional de las mismas. a diferencia de . y de la energía potencial intermolecular (debida a las fuerzas intermoleculares).   Desde el punto de vista de la termodinámica. de paredes impermeables). En un líquido o sólido deberemos añadir la energía potencial que representa las interacciones moleculares. . la variación total de energía interna es igual a la suma de las cantidades de energía comunicadas al sistema en forma de calor y de trabajo U = Q + W. Del mismo modo dU es una diferencial exacta. Aunque el calor transmitido depende del proceso en cuestión. cuando se produce una variación de la energía interna manifestada en la variación del calor que puede ser cedido. aunque a menudo debamos conformarnos con un subconjunto de las mismas. mantenido o absorbido se puede medir este cambio en la energía interna indirectamente por la :variación de la temperatura de la materia. serán funciones de las mismas variables que U: Estas relaciones reciben el nombre de ecuaciones de estado. aumenta su energía interna reflejado en el aumento del calor del sistema completo o de la materia estudiada. En ese caso sus sustitución por el conjunto de todas las ecuaciones de estado proporcionaría una información equivalente.   Como T. Si calculamos su diferencial: se definen sus derivadas parciales:  la temperatura la presión el potencial químico . [editar]Algunas variaciones de la energía interna Al aumentar la temperatura de un sistema. La obtención de resultados concretos a partir de la misma se convierte entonces en un proceso sistemático. P y son derivadas parciales de U. . sin que varíe nada más. Convencionalmente. Por lo general no se dispone de la ecuación fundamental de un sistema.La importancia de la misma radica en que concentra en una sola ecuación toda la información termodinámica de un sistema. Ce = calor específico de la materia (J / kg · K). Q = 1 [cal / g · °C] · 1 [g] · (15 . se habla de variación de la energía interna química o variación de la energía interna latente. sabiendo que el Ce del agua es = 1 [cal / g · °C]. medido en . Aplicando la fórmula tenemos.1. es decir a la altura del mar. una atmósfera de presión y a 14 °C para llevarlo a 15º C. m = masa.temperatura inicial (K). como es el caso de las reacciones químicas o cambio de estado. Esta condición de cambio de estado se puede calcular de acuerdo a: Donde [kcal / m] = Coeficiente de cambio de estado. 2.14) [°C] = 1 [cal] y reemplazando los valores. = temperatura final del sistema .Sin que se modifique la composición química o cambio de estado de la materia que compone el sistema.. Donde cada termino con sus unidades en el Sistema Internacional son: Q = es la variación de energía o de calor del sistema en un tiempo definido (J). se habla de variación de la energía interna sensible y se puede calcular de acuerdo a los siguientes parámetros.Si se produce alteración de la estructura atómica-molecular. Ejemplo Calcular la energía total de un sistema compuesto de 1 g de agua en condiciones normales.. qfa. Energía cinética media de un gas K = Constante de Boltzmann = 1.3.0/temario/tema6/tema6..uam.38·10-23 J/K =Velocidad media de la molécula http://joule. en las reacciones de fisión y fusión se habla de energía interna nuclear. México .es/beta-2.Finalmente. véase Entropía (desambiguación). Escultura dedicada a la Entropía en los jardines centrales de la Universidad de Monterrey.php Entropía (termodinámica) Para otros usos de este término. finalizando en equilibrio térmico. si se ponen en contacto dos trozos de metal con distinta temperatura. El universo . y el trozo frío se calentará. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850. crece en el transcurso de un proceso que se dé de forma natural.3 Contenido [ocultar] 1 Evidencias 2 Ecuaciones 3 Cero absoluto 4 Entropía y reversibilidad 5 Interpretación estadística de la entropía 6 Relación de la entropía con la teoría de la información 7 Entropía y su relación con las termociencias 8 Historia de la entropía 9 Véase también 10 Referencias 11 Enlaces externos [editar]Evidencias Cuando se plantea la pregunta: "¿Por qué ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?". Es una función de estado de carácter extensivo y su valor. mediante cálculo.En termodinámica. a pesar de conservar la energía. la entropía (simbolizada como S) es una magnitud física que permite. Por ejemplo. se busca una respuesta que indique cuál es el sentido de los sucesos. La entropía describe lo irreversible de los sistemas termodinámicos. determinar la parte de la energía que no puede utilizarse para producir trabajo. El proceso inverso. en un sistema aislado. se anticipa que finalmente el trozo caliente se enfriará. La palabra entropía procede del griego ( ) y significa evolución o transformación.12 Y Ludwig Boltzmann quien encontró la manera de expresar matemáticamente este concepto. desde el punto de vista de la probabilidad. el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que se presente. es decir. lanzando trozos de cristal. que viene dada por la energía de Gibbs. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio. Otro ejemplo doméstico: tenemos dos envases de un litro de capacidad que contienen. y entonces se alcanzará la configuración de mayor probabilidad. Coloquialmente. respectivamente. a maximizar la entropía. Hay una relación entre la entropía y la espontaneidad de una reacción química. es decir. Un ejemplo doméstico sería el de lanzar un vaso de cristal al suelo: tenderá a romperse y a esparcirse. con una cucharita. luego tomamos con la misma cucharita pintura negra.tiende a distribuir la energía uniformemente. los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. la vertemos en el recipiente de pintura blanca y mezclamos. Si el incremento de entropía es positivo. repetimos el proceso hasta que tenemos dos litros de pintura gris. que no podremos reconvertir en un litro de pintura blanca y otro de pintura negra. La función termodinámica entropía es central para la segunda Ley de la Termodinámica. La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. mientras que jamás conseguiremos que. pintura blanca y pintura negra. reorganización que dará como resultado un aumento de la entropía. su grado de homogeneidad. En cambio. la vertemos en el recipiente de pintura negra y mezclamos. tomamos pintura blanca. Se dice que un sistema altamente distribuido al azar tiene alta entropía. la entropia del conjunto ha ido en aumento hasta llegar a un máximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogéneo). Un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar). La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. los productos son más ordenados. [editar]Ecuaciones . puede considerarse que la entropía es el desorden de un sistema. se construya un vaso por sí solo. cuando el incremento es negativo. De acuerdo con la ecuación. denominada entropía. del estado 1 al estado 2. el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta. cuya variación en un proceso reversible entre los estados 1 y 2 es: Téngase en cuenta que. más simplemente. está definida por la ecuación siguiente: o.V. El significado de esta ecuación es el siguiente: Cuando un sistema termodinámico pasa. ha de existir una funcióndel estado del sistema. se usa Q. si el calor se transfiere al sistema. en la misma dirección. cuando no se produce variación de temperatura (proceso isotérmico): donde S es la entropía. Cuando la temperatura es más alta. en lugar de dQ. . Por tanto.T). con independencia del camino seguido ( Q es la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura absoluta). la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin). también lo hará la entropía. En todo proceso reversible la integral curvilínea de sólo depende de los estados inicial y final. en su forma clásica. Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico.Esta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. en un proceso reversible e isotérmico. S=f(P. como el calor no es una función de estado. La entropía física. es decir. de densidad finita. Y viceversa. se le denomina producción de entropía. y es nulo cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema.el flujo de calor que entra produce un aumento de entropía menor. la ecuación de Clausius se convierte en una inecuación: Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. Las unidades de la entropía. definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin. en el Sistema Internacional. el valor de la entropía es constante y además constituye un proceso isoentrópico. son el J/K (o Clausius). es necesario fijar la entropía del mismo en un estado determinado. [editar]Cero absoluto Sólo se pueden calcular variaciones de entropía. Esta magnitud permite definir la segunda ley de la termodinámica. La tercera ley de la termodinámica fija un estado estándar: para sistemas químicamente puros. dS=0. sin defectos estructurales en la red cristalina. la entropía es nula en el cero absoluto (0 K). de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. según la ecuación. En el caso de darse un proceso reversible y adiabático. sumando un término positivo al segundo miembro. podemos transformar de nuevo la expresión en una ecuación: Al término p. No obstante. siempre positivo. Cuando el sistema evoluciona irreversiblemente. Para calcular la entropía de un sistema. Por ejemplo: un vaso de agua no empieza a hervir por . Pero en la práctica real el trabajo es menor. llegará la muerte térmica del Universo (enunciado por Clausius). En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moléculas. También se puede decir que la variación de entropía del universo. aun cuando siga cumpliéndose la condición de conservación de la energía del sistema (la primera ley de la termodinámica). de nuevo. que llamamos principio de evolución. los procesos son irreversibles. y esta circunstancia no se da en la naturaleza. Podemos decir entonces que "como el Universo es un sistema aislado. Para llevar al sistema. es igual a su variación en el sistema más la de los alrededores: Si se trata de un proceso reversible. siempre aumentará la entropía.un extremo y a congelarse por el otro de forma espontánea. ya que para que esto ocurra los procesos han de ser extraordinariamente lentos. S (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. [editar]Entropía y reversibilidad La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. su entropía crece constantemente con el tiempo". Pero esto es una situación ideal. por lo tanto. considerando el proceso como reversible. en la expansión isotérmica (proceso isotérmico) de un gas. lo que da como resultado una transferencia de calor hacia el entorno. Así como "la energía no puede crearse ni destruirse". Por ejemplo. ya que hay pérdidas por rozamientos. para un proceso dado. esto es. todo el calor absorbido del medio se transforma en trabajo y Q=W. la diferencia entre calor y trabajo . a su estado original hay que aplicarle un trabajo mayor que el producido por el gas. la entropía puede crearse pero no destruirse. Esto marca un sentido a la evolución del mundo físico. exista un equilibrio entre todas las temperaturas y presiones. Cuando la entropía sea máxima en el Universo. con un aumento de la entropía global. Como los procesos reales son siempre irreversibles. Se cree que existe también un límite superior de aplicación del segundo principio. La ecuación anterior es válida porque se asume que todos los microestados tienen la misma probabilidad de aparecer.4 El significado de la ecuación es el siguiente: La cantidad de entropía de un sistema es proporcional al logaritmo natural del número de microestados posibles. teoría profundamente influenciada por el concepto de entropía. Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de dar una definición absoluta al concepto de la entropía. no tienen significado. etc. los parámetros termodinámicos como la entropía. k la constante de Boltzmann y el número de microestados posibles para el sistema (ln es la función logaritmo neperiano). Esto conduce a la afirmación de que el segundo principio de la termodinámica no es aplicable a tales microsistemas. La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en el Zentralfriedhof (el cementerio central) deViena. de tal modo que no se puede afirmar su cumplimiento en sistemnas infinitos como el Universo.1900 el físico austríaco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como mecánica estadística.desaparece. porque realmente no son sistemas termodinámicos. temperatura. y por tanto. [editar]Interpretación estadística de la entropía En los años 1890 . En la descripción clásica de la termodinámica. Boltzmann se suicidó en 1906. Una de las teorías termodinámicas estadísticas (la teoría de MaxwellBoltzmann) establece la siguiente relación entre la entropía y la probabilidad termodinámica: Donde S es la entropía. lo que pone en controversia la afirmación de Clausius sobre la muerte térmica del Universo. carece de sentido hablar del . profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época. Según la nueva teoría de Jacob D. Los agujeros negros almacenarían la entropía de los objetos que engulle en la superficie del horizonte de sucesos. En cambio. Y la entropía es un parámetro del desorden: ésa es la concepción profunda que se desprende de la nueva interpretación de Boltzmann. es la probabilidad de un estado particular. Cuando la energía es degradada. [editar]Relación Véase también: de la entropía con la teoría de la información Entropía (información) Recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información gracias a la revisión de la física de los agujeros negros. G es la constante de la gravitación y es la constante de Planckracionalizada. 1979. k es la constante de Boltzmann. De hecho. se puede crear una medida para el desorden. del siguiente modo: Donde. pues sólo los cambios en la misma son relevantes. Por extraño que parezca. Stephen Hawking ha tenido que ceder ante las evidencias de la nueva teoría y ha propuesto un mecanismo nuevo para la conservación de la entropía en los agujeros negros. capítulo 10 "Un mundo dentro del mundo".valor de la entropía de un sistema. la teoría estadística permite definir la entropía absoluta de un sistema. . El ascenso del hombre. se debe a que los átomos asumen un estado más desordenado. c es la velocidad de la luz. p. Bogotá. en presencia de agujeros negros la segunda ley de la termodinámica sólo puede cumplirse si se introduce la entropía generalizada o suma de la entropía convencional (Sconv) más un factor dependiente del área total (A) de agujeros negros existente en el universo. 347. Fondo Educativo Interamericano. dijo Boltzmann. definido aquí como el número de formas en que se puede armar a partir de sus átomos Jacob Bronowski. Bekenstein el bit de información sería equivalente a una superficie de valor 1/4 del área de Planck. porque el comal está en contacto con el aire. algo donde se propague el calor. y el comal está calentando al aire y el aire le roba calor al comal. y aún en esas condiciones no estarían en equilibrio debido a que habría que calentar el sistema circundante es decir todo el sistema solar para que el sistema en realidad estuviera en equilibrio y aun así no lo estaría porque habría que calentar todo el universo y hay que recordar que el universo está en continua expansión. [editar]Historia de la entropía El concepto de entropía desarrollado en respuesta a la observación de que una cierta cantidad de energía liberada de funcionales reacciones . [editar]Entropía y su relación con las termociencias Ya que tenemos estos conocimientos previos de lo que es la entropía debemos aplicarlos a las termociencias. es decir. cuando el calor o la energía calorífica se propaga al comal. pero estaríamos cayendo en un error monumental debido a que nunca habrá un equilibrio térmico perfecto. Podremos ver también a nivel molecular un gran desorden de partículas del aire chocando unas con otras debido a la cantidad de calor que están ganando. la entropía se encarga de medir la energía que no es usada y queda reservada en un cuerpo. al realizar un trabajo. podemos decir que el comal está calentado por completo. alguna vez podría estar en equilibrio ese sistema. la respuesta sencillamente es no. es cuando se dice que la entropía aumenta en el sistema. podríamos ver u observar las partículas que componen al comal de un color encarnado mientras que las partículas del aire se van colorando a razón de que pasen por el comal. digamos un comal para hacer tortillas de harina. debido a que se necesitaría calentar el aire de todo el planeta para que estuviera en equilibrio con el comal. supongamos que tenemos un sistema termodinámico. En realidad si pudiéramos de alguna forma observar con unas gafas especiales este sistema enclavado o ubicado que se está llevando acabo en ese momento podríamos observar un desorden a nivel molecular o de partícula. se ocupa muy poca energía.Simplemente. Rudolf Clausius establecido el concepto de sistema termodinámico y postula la tesis de que en cualquier proceso irreversible una pequeña cantidad de energía térmica Q se disipa gradualmente a través de la frontera del sistema. Los primeros motores de calor como Thomas Savery (1698).us.de combustión Siempre se pierde debido a la disipación o la fricción y por lo tanto no se transforma en trabajo útil . podemos aproximarlo a un conjunto acoplado de ciclos de Carnot (dos ciclos de Carnot . En la década de 1850. el Newcomen motor (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes. Durante el próximo medio siglo se llevó a cabo un mayor desarrollo. Si consideramos un ciclo reversible cualquiera. los físicos investigaron este enigma de la energía perdida. una gran cantidad de energía útil se disipa o se pierde en lo que parecía un estado de aleatoriedad inconmensurable. la conversión de menos de dos por ciento de la energía de entrada en producción de trabajo útil. independientemente del sentido del ciclo. a través de la Ley cero de la Termodinámica. En un ciclo de Carnot la suma algebraica de es cero. y más recientemente el concepto de entropía ha encontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información.es/index.php/Calor_espec%C3%ADfico buscar Entropía Hemos definido la variable de estado denominada temperatura. Clausius siguió desarrollando sus ideas de la energía perdida. el resultado fue el concepto de entropía. la variable de estado Energía Interna a través de la segunda Ley y veremos ahora cómo se puede definir la variable de estado denominada Entropía a través de la segunda Ley de la Termodinámica. http://enciclopedia. y acuñó el término "entropía". Durante los próximos dos siglos. ( . condición que no satisfacen y se comporta como una variable de estado. Haciendo los intervalos de temperatura lo suficientemente pqueños. podemos escribir (43) o en el límite de muy pequeñas diferenicas de temperatura entre isotermas: (44) donde indica que la integral se realiza en el ciclo. De la primera Ley de la Termodinámica podemos escribir (46) .adyacentes tienen la misma isoterma). entre dos estados de equilibrio tiene el mismo valor independientemente de las trayectorias que conecten esos dos estados. es la Entropía y tiene unidades en el sistema internacional . Observe que diferencial exacta. Este importante resultado nos permite definir no es una (45) que si es una diferencial exacta. ). digamos inicial y final. así . Esto lo podemos ilustrar mediante la expansión libre de un gas ideal. es decir. Si permitimos que el gas duplique su volumen contra el vacío. para procesos reversibles podemos calcular el cambio de Entropía a través de (48) Es importante señalar que la suma algebraica del cambio de entropía del entorno al sistema y el cambio de entropía del sistema no cambia para procesos reversibles. éste no realiza trabajo ( ).El cambio de entropía entre dos estados de equilibrio. Por tanto. no hay cambio de entropía en un ciclo reversible. Consideremos además que el gas está confinado en un recipiente . ¿Cómo podemos calcular la Entropía para gases reales o procesos irreversibles? La respuesta la encontramos en la Entropía como variable de estado: Para encontrar el cambio de Entropía en una trayectoria irreversible entre dos estados de equilibrio. encuentre un proceso reversible que conecte estos mismos estados y luego calcule el cambio de entropía usando (48). Esto es porque el calor entrante al sistema que produce el cambio de entropía proviene del entorno. En general. resulta (47) Es evidente que en un ciclo . de la primera ley de la con parede adiabáticas. Es un proceso muy diferente a la expansión libre. perdemos control del sistema. Escojamos una trayectoria reversible entre los estados inicial y final. digamos una expansión isoterma de un gas ideal. Inicialmente el gas se encuentra confinado en un volumen y finalmente ocupa un volumen . éste no experimenta cambio de entropía. podemos usar (48) para encontrar: (49) Como no hay transferencia de energía al entorno. Así las cosas. pero conecta los mismos estados de equilibrio.Termodinámica la temperatura inicial es igual a la final ( ) porque se trata de un gas ideal. . La expansión libre es irreversible. Podemos afirmar entonces que la Entropía es una medida del grado de irreversibilidad en un proceso.
Copyright © 2024 DOKUMEN.SITE Inc.