EL CONCEPTO DE ENTROPÍA Leopoldo1. INTRODUCCIÓN GARCÍA-COLÍN SCHERER Miembro de El Cokgio Nacional N o EXISTE posiblemente, dentro del contexto de las ciencias físicas y fisi coquímicas ningún concepto que haya sido tan usado, abusado y mal in terpretado como el concepto de entropía. Para un estudioso o conocedor de estas áreas del conocimiento la entropía se le presenta bajo una de las siguientes i n t e r p r e t a c i o n e s : i) como una medida de la "dis ponibilidad" de un sistema de convertir calor en trabajo; cuyo origen proviene de los trabajos de Camot (1824) y Clausius (1854); ii) como una medida del "desorden molecular" que tiene su origen en la interpreta ción molecular de los fenómenos macroscópicos que exhibe un sistema como un gas, un sólido o un líquido y que surge de los trabajos de Maxwell (1860) y Boltzmann(1872); iii) como una medida de una cantidad que establece la "dirección en el tiempo" que exhiben los procesos naturales y que ahora se denotan como procesos irreversibles. Esa última interpretación proviene de las ideas del propio Boltzmann que recibieron un impulso inusitado a mediados de este siglo. Sin pretender por el momento evaluar cada una de estas interpretaciones, todas son justificables dentro de un contexto perfectamente bien definido, vale la pena también presentar al lector otras afirmaciones sobre la entropía que ilustran las primeras líneas de este párrafo. En un "best selier" escrito hace unos años por un periodista y econo mista,* se leen las frases siguientes: La entropía es la ley suprema de la naturaleza que gobierna todo cuanto hacemos. La entropía nos dice por qué nuestra concepción actual del mundo está resquebrajándose y qué la reemplazará. La entropía es una medida de las cantidad de energía que ya no es posible convenir en trabajo, 'Entropy, A Neui Worid VUw, Bantam Booka, New York 1981,*par Jerome Rifkin. ' ■. 57 Pero no sólo aficionados al uso de términos científicos en connota ciones estrambóticas pecan de estos abusos. Podemos ilustrar con algunas frases de colegas científicos: El estado de equilibrio es aquel para el cual la entropía alcanza un máximo. De un notable cosmólogo. Si la entropía aumenta continua mente durante la expansión cósmica ¿por qué era el estado inicial del universo, uno de baja entropía? De un premio Nobel: En la evolución hacia la complejidad, la termo dinámica juega un papel importante a través del concepto básico de en tropía. . . Hoy en día el interés se desplaza hacia el estudio de sistemas "lejos del equilibrio" que interactúan con sus alrededores a través del "flujo de entropía". ¿Qué entropía? ¿Qué tienen en mente todos estos distinguidos pensa dores cuando usan a dicho concepto para describir tan variados y comple jos fenómenos? ¿Existe una definición universal de esta propiedad que permita su uso y su aplicabilidad a tan viariados y diversos aspectos de fenómenos naturales? ¿Cómo se cuantifica esta propiedad? Preguntas como éstas y muchas más que un lector imaginativo pueda plantearse nos llevan, pues, a meditar seriamente sobre lo que realmente sabemos de la propiedad llamada entropía y el cuestionamiento consecuente acerca de su aplicabilidad a tan amplia gama de procesos que ocurren en el mundo y en el universo. II. ENTROPÍA; GÉNESIS. MÁQUINAS TÉRMICAS Lo primero que conviene subrayar en un trabajo de esta nturaleza, es que el origen del concepto de entropía proviene de una interrogante de carácter estrictamente práctico asociado con las llamadas máquinas tér micas. En su célebre memoria intitulada Reflexiones sobre la potencia motriz del calor, publicada en 1824, el célebre ingeniero francés N. Sadi Carnot mostró por primera vez la posibilidad de obtener trabajo mecánico a partir de una máquina operando entre dos cuerpos a tem peraturas diferentes. En la concepción original de dicha máquina, pre cursores de los actuales motores de combustión, Carnot imaginaba a una masa fija de una gas, digamos aire, contenida dentro de un recipiente metálico de paredes fijas, excepto la superior que consistía de un pistón, con el cual podía regular la presión y por lo tanto el volumen del gas en el cilindro. Se las ingenió para diseííar un proceso, cuyos detalles in teresan aquí, mediante el cual al fmal de mismo el gas retornaba a sus condiciones de partida (igual presión y volumen) y ?ue además pudiese realizarse siguiendo una secuencia de pasos bien determinada o la se58 W en este caso y la energía "que cuesta dinero". si en la figura I llamamos R a esta máquina ideal.IQi! (1) W=IQl-IQ. el trabajo neto realizado por R es: W = I Q ^ I . La primera caraterística define lo que se conoce como un proceso cíclico. Para cuantificar el rendimiento de esta máquina. Esquemáticamente.cuencia inversa. como la lógica indica. 59 .l Figura 1: Una máquina reversible R extrae una cantidad de calor IQ^I de un cuerpo caliente. la segunda lo que define un proceso ideal o reversible. Carnot definió la eficiencia. al cuerpo a menor temperatura el principio de conservación de la energía establece que el trabajo neto producido por dicha máquina es igual a la diferencia entre los valores del calor absorbido y el calor cedido por ella. como el cociente entre la energía que se obtiene.W. Si durante este proceso cíclico la sustancia con que opera la máquina recibe una cantidad de calor del cuerpo a mayor temperatura y le cede otra can tidad de calor. Tg y Tj a las temperaturas de los cuerpos (Tj >Ti).' Q i ' al calor cedido al cuerpo a la tempertura menor T^. IQgl en este caso. a temperatura Tg. menor que la primera. I Qi I al calor ab sorbido del cuerpo a la temperatura mayor Tj y . convierte parte en trabajo W y transfiere a un cuerpo más frío. a temperatura Tj el calor remanente IQi' = 'Q?! . -e-^ T. Así. Aunque el trabajo de Clausius. J. es que para una máquina ideal la suma de los cocientes entre el calor que intercambia la máquina con un cuerpo a temperatura dada y la temperatura de dicho cuerpo. fue el de ar gumentar que la eficiencia de cualquier máquina ideal R operando entre dos cuerpos a temperaturas diferentes depende sólo de las temperaturas de dichos cuerpos y de ninguna otra variable que pueda intervenir en el proceso. T. es que I Q J nunca puede ser cero.Q^. . La segunda aportación brillante de Carnet a este campo. la idea que introdujo a manera esencialmente de un postulado. sería posible construir una máquina que operando en ciclos no hiciera otra cosa que extraer calor de un cuerpo caliente y convertirlo íntegramente en trabajo (W = iQsl)Esta máquina. (3) 60 . operando entre dos cuerpos solamente.ír— . nunca será. obtenemos que.^"M"^ . el padre de la termodinámica contemporánea. tenemos que TI W -. ver referencia 11 de la bibliografía) es más complicado de lo que aparece en esta presentación.Llamando T[ a esta eficiencia. el llevar a cabo esta demostra ción. E. Si aplicamos esta hipótesis a la máquina de Carnot de la figura 1. . Un principio muy importante en la teoría de las máquinas térmicas llamado después segunda ley de la termodinámica. -" o bien que "^. a saber que T. no puede ser. es igual a cero.7 ^ =0 T. Clausius. publicado en 1854 (ahora disponible en inglés. IQil donde la segunda igualdad se obtiene al substituir W por su valor dado por la ecuación (1). = -. igualdad que substituida en la ecuación (2) conduce al resultado deseado. Tocó realmente al eminente físico alemán R. llamada un perpetum motile de segunda clase no existe (a pesar de los múltiples e infructuosos esfuerzos que se han hecho por construirla). no dio la demostración matemática de dicha afirmación. pues.r ^ . la ecuación (2) nos dice que la eficiencia de cualquier máquina ideal. del 100% (n < 1). Si fuera. Sin embargo. etc.S(A) es igual a la suma de los cocientes del calor transferido entre el sistema y los cuerpos con que intercambia calor en las dife rentes fases del proceso.La fórmula (3) permite entonces calcular la eficiencia máxima con que cua/^uier máquina térmica puede operar entre dos temperaturas. esto es. Vamos a comenzar por repetir que Clausius hizo la afirmación arriba señalada para procesos ideales o reversibles. etc. De esta manera. ¿Qué significa esto? Tome mos como ejemplo el gas contenido en el cilindro con un pistón movi ble como tapa superior. temperatura (T). sólo nos contentaremos con presentar las ideas subyacentes de la manera más simple posible (el lector interesado debe consultar la bibliografía). 61 . en tendido que en la práctica no existen máquinas operando en ciclos ideales o reversibles. la diferencia entre las entropías de A y B. Pero los resultados más notables que obtuvo Clausius a partir de su postulado sobrepasan por mu cho en importancia al contenido de la ecuación (3) para r[. atributo que llamó entropía (de tropos. permanecen inmutables. De esta abstracción se deriva la denominación . y las temperaturas de dichos cuerpos.de "proceso ideal". volumen (V). Má-.. e. cambio). si el gas está formado por moléculas de la misma especie (hidrógeno. etcétera. dichos proce sos sólo son concebibles en nuestra mente. Si ahora fijamos los valores de dos de estas variables. si estos valores no cambian con el tiempo. la masa del sistema permanece constante esto es. Y es precisamente para estos procesos que Clausius pudo generalizar su hipótesis primitiva y mostrar que la suma de cocientes Q / T para una máquina intercambiando calor con el número arbitrario de cuerpos es cero. que como p. Es muy importante hacer hincapié en que en todos estos desarrollos. De ahí infirió que dicha suma no depende del proceso y que por lo tanto depende sólo del sistema que sufre el proceso. deci mos que dicho estado es uno de equilibño. pues en la naturaleza ningún proceso es reversible. S(B) . Este resultado es uno de los pilares sobre los cuales descansa la ingeniería de máquinas térmicas. la energía U. De estos atributos. digamos p y V decimos que hemos definido el estado del gas.) y es quími camente inerte. el sistema es cerrado. también de equilibrio que llamaremos B. nitrógeno. si tenemos a un sistema cualquiera que inicialmente se encuentra en un estado de equilibrio que llamaremos A y mediante un proceso reversible lo llevamos a otro estado final. Esto es una característica que por el momento la tomaremos como empírica. Evidentemente. es consecuencia de la observación. esa suma es un atributo del sis tema. i. Dicho gas (masa constante) posee varios atributos susceptibles de medirse fácilmente como son su presión (p). T. aún. V. No es este el lugar apropiado para desarrollar en detalle matemáticamente los pasos que llevaron a Clausius a sus conclusiones más importantes. sólo dos son independientes. U := cte) > O (4) la energía interna y la igualdad se cumple sólo cuando el proceso es ideal. el sistema no puede intercambiar ninguna forma de energía con sus alrededores. 62 . digamos Vo S(U. Simbólicamente donde U representa AS= S(estado final. la entropía nunca puede disminuir. Como un corolario a este resultado se des-prende que si la energía es constante.Utilizando esta definición de entropía. Este último atributo implica que. esto es su energía constante. VQ) es un máximo. hasta la última posible fija por un valor del volumen. En el caso del gas al cabo de muchas expansiones sucesivas. Clausius logró además de mostrar una serie de proposiciones que a continuación discutiremos.S(estado inicial. Clausius mostró que si en un sistema con estas características provocamos un proceso entre dos estados de equi librio. cuyo volumen V puede variarse por medio de un pistón intercambia energía con sus alrededores (objetos cercanos que lo rodean) pero el sistema total gas + recipiente + laboratorio es un sistema cerrado y aislado. Imaginemos el gas del ejemplo anterior rodeado todo con asbestos y el pistón en una posición fija. si despreciamos la acción producida por la fuerza de la gravedad. la entropía tiende a un máximo consistente con el valor de la energía. U = cte) . digamos una expansión o una compresión en el caso del gas. Su pongamos que tenemos un sistema cerrado y aislado. su entropía es función de la energía y el volu men. (masa = cte) Sistema aislado Figura 2: Una masa constante de gas encerrada en un cilindro. Si está además confi nado a un volumen dado. De nuevo. compuesta en una forma consislente para todo el universo tomando en cuenta Codas las condiciones. no queda claro ¿pensó que el universo cosmológico es un sistema cerrado y aislado que tiende a un estado final de equilibrio y por tanto su entropía tiende a un máximo? ¿Es esto compatible con las teorías cosmológicas existentes? ¿Es también factible que la masa del universo sea constante para garan tizar que sea un sistema cerrado? Hasta aquí llega todo lo que podemos 63 . La cul minación del trabajo de Clausius se encuentra resumida en un párrafo que es un tanto desconcertante y que transcribimos literalmente: Sí imaginamos la misma cantidad. Pensemos que para todo propósito práctico sólo la atmósfera (aire y demás objetos) del labo ratorio forman un sistema cerrado. .. Qué quiso decir con una entropía compuesta en una forma con sistente. ^ O (5) Esta fórmula implica que en estos casos la entropía de uno u otro siste ma (gas) o alrededores (aire). Imaginemos al gas del cilindro con su pistón colo cado en una masa de un laboratorio (ver figura 2). ver in troducción). podemos escribir que: CAS)Total .i. la igualdad se satisface si los procesos involucrados en estos cambios son ideales. y si al mismo tiempo usamos el otro concepto. con su signiOcado más simple. La energía del universo es constante.Sgas + Saired. gr. 2. el cambio de entropía no puede ser negativo. + (AS)3lred. puede disminuir siempre y cuando el cambio total de la entropía no sea negativo. podemos formular las leyes fundamentales del universo corres pondientes a las dos leyes de la teoría mecánica del calor en la forma siguiente: 1. el resultado expresado por la fórmula (4) sigue siendo válido si se inter preta correctamente. que en el caso de un solo cuerpo he llamado su entropía.. . Y por consiguiente.Este resultado es de suma importancia en todos los fenómenos "térmicos" que ocurren en la materia y también es la fuente de una enorme confusión respecto al uso del concepto de entropía (v. La entropía del universo tiende a un máximo. tomando en cuenta todas las condiciones. Clausius jamás volvió a escribir sobre el tema y ello planteó varios enigmas. incluyendo al gas. S^otai . entonces para todo proceso que ocu rra en dicho recinto. Pero como la entropía es una propiedad aditiva. la energía.AS). Si el sistema es sólo cerrado pero puede intercambiar energía con una porción del universo que lo rodea y que llamamos "alrededores". Imaginemos un conjunto arbitrario de cuerpos. un gas (A). después de medir sus temperaturas. un vaso con un líquido (B). para el caso de sistemas abiertos. pues. que pueden intercambiar masa con sus alrededores. . esto es. etcétera. el significado de entropía no es del todo claro. nosotros podemos ordenar este conjunto de cuerpos a través de una relación > que indique "más ca liente que". tan caliente como la madera pero más que el plomo. por ejemplo. y sólo cuando el sistema se encuentra en un estado de equilibrio. un pedazo de plomo (D). esto es. es fácil convencerse de que la ecuación (5) es aplicable siempre y cuando el sistema total tenga no sólo energía. un atributo de un sistema cuyo valor puede calcularse de acuerdo con su definición operativa cuando. A esto nos abocaremos en la siguiente sección. en función de lo que burdamente entendemos por grado relativo de calentamiento. La entropía es. El lector acucioso habrá ya concluido que aun con este arsenal de información. ENTROPÍA Y DESORGANIZACIÓN Para todos nosotros es relativamente claro que la temperatura es un atributo inherente a cualquier sistema macroscópico que permita estable cer una relación de orden. tendríamos que A>C = B > D > . Inclusive. un trozo de madera (C).decir sobre la entropía como se concibe en la termodinámica conven cional. Así. III. sino también masa constante. El poder establecer esta rela64 . B fL---£i Gas Líquido Madera Mediante un termómetro bien calibrado. . ei gas está "más caliente" que el líquido. etcétera. volu m e n (V). la tensión ( T ) . N. V a m o s a h o r a a e x a m i n a r a l g u n a s características d e los sistemas term o d i n á m i c o s c o m o los i n c l u i d o s en el c o n j u n t o d e a r r i b a . el valor total d e la variable es la s u m a d e los va lores d e c a d a u n a d e esas n p a r t e s .■ \ ción d e o r d e n e n la n a t u r a l e z a es c o n s e c u e n c i a d e u n a x i o m a l l a m a d o la "ley c e r o d e la t e r m o m e c á n i c a " . Cada vez q u e r e m o v a m o s u n a restricción e n este sistema. d e s p r e c i a n d o los efectos del c a m p o gravítacional. cuya validez está a m p l i a m e n t e com p r o b a d a p o r el e x p e r i m e n t o . i n d u c i m o s u n p r o c e s o q u e lleva al sistema a u n estado final d e equilibrio con u n a restricción m e n o s d e las q u e tenía i n i c i a l m e n t e ( p a r a m a y o r e s d e t a l l e s c o n s ú l t e s e la b i b l i o g r a f í a ) . mecánicas q u e i m p o n e n valores d a d o s a variables c o m o la presión ( p ) . todas las restricciones afectan a variables extensivas ú n i c a m e n t e . . el c a m p o eléctrico ( £ ) . C. B. la p o l a r i z a c i ó n eléctrica. . i n d u c i m o s u n p r o c e s o q u e al t e r m i n a r deja al sistema e n u n estado con u n a restricción m. etcétera y térmicas. Resulta q u e la r e s p u e s t a es afirmativa. D. á r e a (A) o l o n g i t u d (L). q u e i m p o n e n valores a variables c o m o la e n e r g í a (U) y la t e m p e r a t u r a {T). la e n t r o p í a S es u n a m e d i d a d e la falla d e o r g a n i z a c i ó n o "desorganización" d e u n sistema m a c r o s c ó p i c o aislado y cerrado. Y finalmente h a c e m o s n o t a r q u e si e n u n sistema aislado y c e r r a d o en u n e s t a d o d e equilibrio r e m o v e m o s u n a restricción. e t c é t e r a . la p r e g u n ta p l a n t e a q u e . 65 . S= -C Si a c e p t a m o s a h o r a la c o n v e n c i ó n d e q u e u n sistema e s t a r á m á s " o r g a n i z a d o " c u a n t o m a y o r sea el n ú m e r o d e restricciones q u e le im p o n g a m o s .enos • Ver en parñculu-. la masa o n ú m e r o d e partículas q u e c o m p o n e n el sistema. referencias (5) y (4) de la bibliograña. Estas consideraciones plantean de inmediato una interrogante: ¿Puede orde narse la secuencia d e c u e r p o s A. la e n e r g í a . esto es..). . del e j e m p l o a n t e r i o r a tra vés d e u n a variable q u e m i d a su "índice o g r a d o d e restricción"? N o t e el lector q u e sí aislamos a todos estos c u e r p o s d e sus a l r e d e d o r e s . m e d i a n t e u n simple e x p e r i m e n t o . E n u n sistema aislado y cerrado. a q u e l l a q u e define la e x t e n s i ó n d e l sistema. t i e n e q u e ser fun ción s o l a m e n t e d e las variables extensivas (U. d e existir este í n d i c e . l l a m é m o s l e C. V.. A q u í se clasifican todas las variables g e o m é t r i c a s .. Estas variables son aquellas tales q u e si p a r t i m o s ai sistema e n n partes. Está c l a r o q u e todo sistema e n equilibrio está caracterizado p o r restricciones q u e son g e o m é t r i c a s . es p o s i b l e cuantificar a C y m o s t r a r * q u e es p r e c i s a m e n t e igual al valor d e S pres crito p o r Clausius p e r o con signo m e n o s . que por tanto son medibles en el laboratorio. el siglo pasado. Estos dos grandes físicos. hemos podido describir el movimiento de los planetas y sus satéli tes alrededor del sol. Cualquier intento por calcular las "órbitas" de 10^5 moléculas es poco menos que irrealizable. de los siste mas en cuestión. Lo que Maxwell. etcétera. como en el caso del billar como un enjambre de estas lO^* moléculas que chocan entre sí y contra las paredes como 66 . pues. Puede mostrarse fácilmente que en to dos estos procesos inducidos el sistema realiza trabajo útil sin afectar su energía y de ahí que suela asociarse a la entropía la connotación de ser una medida de la capacidad del sistema para realizar trabajo. Esta diferencia radical entre ambos problemas fue percibida con toda claridad por J. grandes frutos. Sin embargo. además de innecesario e inútil. es que para abordar un problema de esta índole. junto con Clausius. LA ENTROPÍA DE BOLTZMANN Y EL DESORDEN MOLECULAR Es un hecho bien conocido para los estudiantes de mecánica que el movimiento de dos cuerpos interactuando a través de la fuerza gravitacional puede resolverse exactamente. y específicamente Boltzmann. Para mostrar estas ideas hagamos un símil con el bien conocido juego de billar en una mesa (dos dimensiones) de superficie finita. Boltzmann. como valores promedio de ciertas cantidades que reflejan un efecto colectivo de la población del sistema y no de valores indivi duales. el panorama cambia totalmente. las partículas (bolas) interactúan sólo cuando chocan entre sí y con las paredes de la mesa como consecuencia de) golpe que un juga dor les imprime con el taco. Sólo podemos referirnos a los atributos macroscópicos. C. Maxwell y L. como lo hizo Boltz mann. necesariamente hay que recu rrir a la estadística matemática. por ejemplo una mol de gas a temperatura ambiente. De nada nos serviría esa información para obtener de ella valores de atributos macroscópicos del sistema como su presión o su temperatura. hicieron notar. Por lo contra rio. si nos ponemos a examinar la mecánica de un sistema microscó pico. IV. esta afirmación ya no es válida si el sistema deja de ser un sis tema aislado. Vamos a imaginar. son considerados los progenitores de la hoy llamada "teoría cinética de la materia". pero sí pueden obtenerse soluciones analíticas o numéricas. Para tres cuerpos la solución exacta no se conoce. que un gas (1023 moléculas) encerrado en un recipiente cúbico de volumen V se comporta. En este juego. Las ideas de Isaac Newton han dado./• y por tanto más desorganizado. calcular órbitas de satélites artificiales. Así. Uy. El eje vertical r e p r e s e n t a el espacio d e velocidades d e t e r m i n a d o p o r t e r n a s (Vj. Imaginemos en su lugar que "proyectamos" este espacio de seis dimensiones en un plano. d e configuración. sea igual a un cierto valor E*. calcular. y. En el primer caso sólo aquellas posiciones que corresponden a moléculas dentro del volumen V son permisibles.bolitas de billar. Uz). como consecuencia no del golpe de un taco. para asegurar que la energía del gas es constante imponemos que la suma de energías de las moléculas. En este modelo en particular. d e t e r m i n a d o p o r ternas (x. Y esto es justamente lo que es imposible además de inútil. z) y tres más para espe cificar su velocidad (Ux.d i m e n s i o n a l del espacio fase d e u n a m o l é c u l a c o n c e b i d a c o m o bola d e billar. en total seis coordenadas. así que a un instante dado hay 10^^ puntos que describen "trayectorias" en dicho espacio imitando el movimiento de las correspondientes moléculas. velocidad i-esima celda con e n e r g í a Ei E=-imVj2^. Al espacio de finido por esta sexteta de números se le llama "espacio fase" y por ser un espacio de seis dimensiones no podemos dibujarlo. Más aún. "Usamos E para distinguir la energía mecánica interna U._ V y _ Vj) y el h o r i z o n t a l . esto es. Cada punto en este espacio describe el "estado" de una molécula. z)'. esto es. sino del hecho que obedecen a las ecuaciones de movimiento de Newton. el eje vertical correspondiendo al espacio de velocidades y el horizontal al de posiciones (ver figura 3). y. que en este modelo sólo pueden ser energía cinética. I m v 2 * + ^ ¡ """M V= constante N= constante V posición -) Figura 3: Proyección b i . En el segundo caso. cada espacio está "acotado". no cualquier posición ni cualquier velocidad es permisible. Si que remos especificar la posición de cada molécula en cada instante de tiempo necesitamos tres coordenadas de posición (x. E=U 67 . consiste en reconocer que sólo conviene examinar las propiedades de conjuntos de moléculas. se conoce como la distribución de Maxwell-Boltzmann. cuya fre cuencia de aparición debe ser abrumadoramente mayor que cualquier otra concebible.El siguiente paso. A cada celda le asigna mos una cierta energía E. Como este macroestado es una suma de todas las posibles comple xiones definidas por los números de ocupación. N. Si ahora dejamos que corra "la película del sistema" en el tiempo. Todos los posibles deben satis facer las ecuaciones (6) y (7). AI total de ellas lo designaremos con la letra Q y lo llamaremos un macroestado del sistema. cuyo valor por el momento no interesa. = N (6) y como la energía es constante " l e í + n2e2 + ■ • • + njei + . a cada instante de tiempo. Claramente. V=cte. + nj + . Boltzmann interpretó este resultado en el contexto del modelo aquí des crito afirmando que en equilibrio. debe existir una. . hay otro tanto número de complexiones. n. Dicho número. hay un sinnúmero de formas de elegir a los "números de ocu pación" consistentes en las ecuaciones (6) y (7). ng en la celda 2. el incesante movimiento de las mo léculas hace que las n's varíen a cada instante de tiempo y por lo tanto Q también cambie con el tiempo. esto es. Í2 = í í (E. hay muchas formas de "acomodar" a las moléculas en las celdas. Pero ahora recordemos uno de los resul tados centrales para la entropía de Clausius: en u n sistema aislado (E = cte. para lo cual podemos subdividir a dicho espacio en pequeñas celdas de manera que en cada celda haya. 68 . . . a pesar de que la distribución de moléculas en sus celdas cambia con el tiempo. . muchas moléculas. sólo podrá depender de E. . digamos nj moléculas en la celda 1. N=cte) en equilibrio. ni + n2 + ns + . Pero aun para un conjunto de valores pres critos para los números de ocupación. = E (7) Estas dos condiciones establecen claramente que no cualquier conjunto de números de ocupación es permisible. la entropía tiene un valor máximo. N y V. determina lo que llamaremos una "complexión" del sistema. V). Como. no tantas como N y bastante más que una o dos. Dicha distribución que puede calcularse matemáti camente. Su existencia nos sirve aquí para justificar el pustulado básico de Boltzmann. que no calcularemos aquí. además. señala Boltzmann. . en la i-ésima y así sucesivamente. Aho ra imaginemos una "instantánea" del sistema en la cual el "número de ocupación" de cada celda está prescrito habiendo. N y V. esto es.81 • 1 ue. En el caso de gases con estructura molecular más complicada como lo son el CO.09 44.10 53. materiales paramagnéticos y otros sistemas ideales. N.42 46.28 K / n í i (o) -0 ~0 ~0 ~0 -0 1.31 52-58 45.05 53.20 51. A la entropía S. sistemas cuya energía total es la suma de las energías de las moléculas individuales como en la ecuación para E. El resultado más relevante que se obtiene de la ecuación (9) es que si se aplica a sistemas como gases.31 36. que obviamente depende de E. NgO y HgO existe una discrepancia que se manifiesta en que la entropía calorimétrica es mayor que la entropía probabilística. en contraposición con la definida por Clausius a la que se le denomina "calorimétrica".50 47.a saber que debido a este hecho debe existir una relación funcional en tre S y Qmax' Simbólicamente s = f(a^ax) (8) Como S es aditiva y la probabilidad Q es multiplicativa. un pequeño ejercicio de cálculo permite deducir la celebrada fórmula de Boltzmann: S = kB In Q^ax (E. DE PRESIÓN) HCI HBr O Cl N CO NgO H2O ENTROPÍA EN {u e .34 44. sólidos.60 49.53 47. Esta diferencia se ha tomado como una medida de un desarreglo molecular Tabla 1 GAS IDEAL (25° C Y 1 ATM.48 49. V) (9) donde kg es una constante y Q^ax es el macroestado asociado con la dis tribución más probable de los números de ocupación.64 47.11 1. ) ' CALORIMÉTRICA PROBABILÍSTICA 44. = ] cal/mol-K. la entropía concuerda con la obtenida por los métodos calorimétricos. se le llama entropía probabilística. O entropía residual que se acostumbra identificar con aquellos grados de libertad moleculares que no alcanzan su estado de equilibrio a medida 69 .24 0. La tabla 1 muestra esta concordancia en el caso de algunos gases simples.32 36. tan simple en principio. es la que mayor interés tiene en la actualidad. además. su temperatura es constante. A esta entropía residual se le repre senta por el término k In fií°/ Dado que Q. sin embargo. Volveremos a este punto en la sección VI. Ya hemos repetido varias veces que los proce sos ideales o reversibles no existen. ENTROPÍA E IRREVERSIBIUDAD La pregunta crucial que surge después de una discusión de esta índole y que. son abstracciones producto de la mente. V. sea como una medida de la desorganización. e. ¿Cómo describimos los estados del sistema fue ra del equilibrio? La termodinámica de Clausius sólo es aplicable a esta dos de equilibrio. se ha acuñado el término "desorden molecular" para designar tal característica y por ello a Spi-ob. o como una medida del des orden exclusivamente en el contexto de la ecuación (9).se le interpreta como una medida del desorden molecular. analicemos unos cuantos ejemplos: Imaginemos un trozo de metal "al rojo vivo" pero en equilibrio i. y además darle una interpretación más o menos clara a esta función. Ahora arrojamos el meta! caliente al agua fría teniendo cuidado de cerrar el recipiente para evitar pérdidas por evaporación. Para entender mejor el problema. Por ello es un problema elemental calcular esta función para otros estados de equilibrio de sistemas no aislados pero cerrados. Esta frase. por lo riesgoso que resulta hablar de desorden sin antes haber prescrito lo que se entiende por orden.que nos acercamos al cero absoluto. Resumiendo: la entropía es una propiedad operativamente bien de finida para estados de equilibrio de sistemas aislados y cerrados que es obtenible por métodos calorimétricos haciendo uso de la definición de Clausius y calculable para sistemas ideales usando la fórmula de Boltzmann. varias sutilezas. contiene. esto es un tanto desafortunado. concierne con la posible conexión entre la entropía y la dirección en que ocurren los procesos naturales. Sin embargo. Todos los procesos naturales o reales no pasan por una secuencia de estados de equilibrio. Al cabo de unos minutos descubri mos a un sistema formado por el metal y el agua a una temperatura menor que la inicial del metal y mayor que la inicial del agua pero 70 . representa la forma en la cual las moléculas tienen a su disposición diferentes regiones del espacio fase caracterizada por su distribución en las celdas Ei. también en equilibrio. En un recipiente aparte tenemos varios litros de agua a temperatura ambiente. Todos sabemos que el proceso que ocu rrió dista mucho de ser "ideal" y además tampoco observamos que el metal se calienta más y el agua a su vez se enfría. Matemáticamente. crece. ¿Puede esta característica asociarse al cambio de entro pía? La respuesta es. Un organismo vivo. se reproduce y muere pero nadie (¡desgraciadamente!) rejuvenece. A esta fracción la denotaremos por f¡. Para circundar esta dificultad. Utilizando argumentos basados en la con servación del número de partículas (éstas no se crean ni se destruyen) y una hipótesis de carácter estadístico. El primer intento de asociar a la entropía como una medida general de la irreversibilidad. dH<0 dt (11) 71 . Boltzmann tuvo otra idea genial. logró demostrar que H es una función monotónica no creciente del tiempo. La "dirección del proceso" es única. el caliente se enfría y el frío se calienta (conducción de calor) hasta al canzar ambos una temperatura intermedia. a un tiempo dado t se encuentran en una celda infinitesimal del espacio fase.finalmente ambos en equilibrio. H (T) = JJ {\ In fj X volumen i-ésima celda (10) donde j ] representa la operación de sumatoria sobre todas las celdas en el espacio fase. Haciendo refe rencia de nuevo a la figura 3. se propuso estudiar la manera de describir la dinámica (evolución en el tiempo) no de una molécula sino de la fracción de moléculas que digamos. Algo similar ocurre en cualquiera otra situación en la cual dos cuerpos a temperaturas diferentes se ponen en contacto entre sí. En una sola frase. esto es. grandes retos a los especialistas en físicamatemática para dilucidar sus propiedades generales. AS > O pero esta desigualdad no se satisface en otras condiciones. es debida al mismo Boltzmann. que asegura un comportamiento estadísticamente independiente de cada molécula en el espacio de configuración y en el de velocidades. llamada hipótesis del caos molecu lar. Cierto. nace. Esta ecuación propuesta en 1872 pre senta. muy probablemente no. aún hoy en día. si los estados inicial y final son de equilibrio. Sin tener que resolver la ecuación que gobierna la evolu ción del fj con el tiempo y sólo bajo la hipótesis de que la solución existe y varias sumatorias convergen. definió una cantidad que llamó H como un promedio del valor del In f¡ sobre todas las posi bles celdas del espacio fase. el sistema (y sus alrededores cuando mucho) es aislado y cerrado. logró deducir una ecuación integro-diferencial que gobierna el cambio de dicha función f¡ en el tiempo. tal parece que la peh'cula del universo observable nunca retrocede. si i es la i-ésima celda. que ya no repetiremos aquí [ver ecua ción (4)] establece que AS > O si los dos estados del gas. la ecua ción (15) sólo nos dice que la entropía es una función monotónica no decreciente del tiempo pero su asociación con los estados del gas sería nebulosa. aun si insistiéramos en identificar H con S a cualquier tiempo t. Pero no contiene información de cómo varía S. V. En efecto. T. Este resultado. se obtiene "sor prendentemente". Sin embargo. La segunda ley.Ahora bien. en promedio. Así.kBH(t) como una entropía fuera de equilibrio. recordemos que en equilibrio existe una fj que es abrumadoramente más probable que cualquier otra. todavía no definidas. a la Clausius. pues. La desigualdad (11) implica que H es. la entropía de equilibrio es igual a menos kg veces el valor de la función H calculada con la distribución f. sólo es válido para sistemas (gases) ideales. Si se utiliza esta función para evaluar la sumatoria de la ecuación (10). pero real. Para ello tendríamos que conocer el valor de f¡ a cada tiempo t lo cual equivale a resolver la ecuación que satisface y esto nunca se ha lo grado ni siquiera para un sistema simple. Las figuras 4 y 5 ilustran claramente la diferencia entre H y S. La desigualdad de la ecuación (11) se transforma entonces en. si la ecuación (12) es válida en equilibrio. la extrapolación que se ha hecho de esta ecuación (12) es la causante de los muchos y variados abusos que se han perpetrado con el concepto de entropía. _dS>0 dt (13) que ahora se convertiría en la demostración matemática (molecular) de la segunda ley para sistemas ideales. ni con el tiempo. una función que en efecto pone de manifiesto la "irreversibilidad" de un proceso descrito por la ecuación para fj garanti zando que después de un cierto tiempo l^. Pero esto es incorrecto. ni con las variables. que pudieran usarse para describir los estados del gas fuera del equilibrio. etcétera. que S^q=-kBH^q (12) esto es. En primer lugar H no es un atributo del sistema. por qué no interpretar a S(t). en la figura 5 representados por Xj. = . son estados de equihbrio y el gas sufre un proceso real entre ellos. Vg donde X representa otra variable como p. Sólo en equilibrio es proporcional a la entropía del gas. alcanzará su estado de equili brio. y Xg. 72 . (de Maxwell-Boltzmann). si persistimos en visualizar a la entropía como una variable termodinámica o molecular. tal que s(«l). En pocas palabras. el programa iniciado por Boltzmann para intentar describir cómo se comporta un sistema en un proceso real y cómo de ahí puede obtenerse información acerca de las variables adecuadas para des cribir estados de no-equilibrio. equilibrio proceso real Figura 4: Aquí se muestra cómo la función H. Para un tiempo te característico de cada gas H alcanza su valor de equilibrio. V] se exhibe gráficamente el significado de la desigual dad de Clausius: Entre dos estados de equili brio cualesquiera para un sistema aislado (U-cte. Shannon propuso una estructura conceptual. ENTROPÍA.Vj) U=cte._kBH(«l).V^>S(U. cálculo de propiedades. por medio de la cual es posible obtener u n a interpretación muy clara de por qué se puede asociar el concepto de entropía como una 73 .S(VU. en promedio. ahora conocida como teoría de la información. T ) . Y sin embar go. VI. sigue siendo más un sueño que una rea lidad. INFORMACIÓN Y DESORDEN En 1949 el ingeniero y matemático norteamericano Claude E. reactores. Hasta hoy en día. de flujos sub y supersónicos. AS > 0.) y cerrado (masa>constante). etcétera. es una cantidad que es mono-tónicamente decreciente en el tiem po. su aplicación está limitada única y exclusivamente a estados de sistemas en equilibrio. y éstos claramente ¡funcionan! ¿Por qué? Tampoco hemos podido responder a esta interrogante con claridad y precisión. tampoco deja de sorprendernos el hecho de que los ingenieros usan prácticamente todos los resultados de la termodinámica convencional para el diseño de plantas químicas. Figura 5: En un espacio de estados termodinámicos [X (= p. en nuestro ejemplo para un niño deambulando al azar por una casa grande que por una más pequeña). es el número total de estados (habitaciones en el ejemplo del niño deambulando por su casa). por casas editoriales. es igual a uno. Y el adoptado será el adecuado para un grupo de personas. igual a cero. La medida cuantita tiva del desorden debe ser. Para ello se imponen las siguientes condiciones: a) La medida del desorden debe estar definida solamente en términos del conjunto {f¡}. En nuestro ejemplo. Q. A este punto regresaremos al final de esta sección. de habitación en habitación. ^ b) Si una de las f. consecuentemente.. por consiguiente las restantes iguales a cero. Veamos esto con un ejemplo: un niño cuyos padres van a salir. f2. d) El desorden máximo debe ser una función creciente de Q. pues. la forma de ordenar los libros en una biblioteca puede hacerse por temas generales. es necesario llegar a un acuerdo sobre qué conjunto de reglas significan "orden".medida del desorden molecular. tratándose de una casa de varios pisos. Vamos a suponer que el tiempo que permanece en cada habitación es registrable y denotamos por fj la fracción de tiempo que permanece en la j-ésima habitación. Mas para ello necesitamos primero hablar sobre lo que es orden. el niño no obedece y deambula por toda la casa. pero no necesariamente para otros. la idea de Shannon es cuantificar el "desorden". por combinaciones de éstas o por algún otro crite rio. 74 . Con ello. le ordenan permanecer en una sola habitación de su casa hasta su regreso ¡esta es la regla de orden! Obviamente. si conocemos f]. si f ^ ^ ^ es la frac ción de tiempo que el niño pasó en el primer piso y D^^^ el desorden de su distribución sobre las habitaciones de dicho nivel. Pero es necesario reconocer que orden es un concepto subjetivo. c) Si O. Por ejemplo. el sistema está totalmente ordenado. f^. (siendo mayor. etcétera. Del concepto orden tenemos todos una noción más o menos cua litativa y si vamos al diccionario encontramos una variedad no despre ciable de posibles definiciones. Así.-. al salir los padres. entonces. por orden alfabético. el desorden máximo deberá corres ponder a I . Como hemos mencionado. esto es. e) El desorden debe ser aditivo con respecto a desórdenes parciales. Shannon puede dar una definición cuantitativa de desorden asociada con una cierta distribución de valores para f:. Es también muy factible que sea la in terpretación de la entropía dentro de esta teoría la que pueda jugar un papel mucho más versátil que su correspondiente versión termodiná mica. n siendo el número total de habitaciones en el ejemplo anterior. q u e en efecto la e n t r o p í a es u n a m e d i d a cuantitativa del de s o r d e n m á x i m o p a r a u n sistema ideal "aislado" ( a u n q u e la restricción d e ideal p u e d e removerse) es u n a c o n s e c u e n c i a directa d e la teoría d e 75 . A d e m á s . . De a q u í u n r e s u l t a d o i n t e r e s a n t e . . De esta m a n e r a . pues.D e s o r d e n = f<í> X D e s o r d e n (^) + f(l) x D<^> + . si Q el m a c r o e s t a d o del sistema es la s u m a total d e todas las posibles c o m p l e x i o n e s disponi bles d e las partículas del gas en el "espacio fase" (figura 3). (15) Volvamos la vista hacia atrás y r e c o r d e m o s q u e en el caso particular d e un sistema i d t a l (gas) d e a c u e r d o con el m o d e l o d e B o l t z m a n n f. — _ . A la distribución de partículas en sus celdas de a c u e r d o con el valor fj = Q"^ se le llama en t é r m i n o s técnicos la distribución m i c r o c a n ó n i c a y le o t o r g a "probabilidades d e o c u p a c i ó n a priori iguales" a todas las celdas del espa cio fase. fj-£j = o. el d e s o r d e n es cero y t a m p o c o es difícil demostrar que si f] = Í2"^ para toda j entonces.k X + f j / n fj j (14) d o n d e k es u n a c o n s t a n t e arbitraria positiva y la e c u a c i ó n es unívoca. Así. para u n sistema c e r r a d o y aislado la definición probabilística d e B o l t z m a n n para la e n t r o p í a c o r r e s p o n d e p r e c i s a m e n t e a la m e d i d a cuantitativa del d e s o r d e n m á x i m o posible en la distribución d e las p a r t í c u l a s sobre sus posibles c o m p l e x i o n e s . D e s o r d e n m á x i m o = + k /n £i puesto q u e S f¡ ^ 1. la m e d i d a del d e s o r d e n p u e d e e n t o n c e s demostrarse q u e esta d a d a p o r la fórmula D e s o r d e n = . la distribu ción al azar d e las partículas c o r r e s p o n d e j u s t a m e n t e al valor f ^ = Q"^ para toda i y p o r lo t a n t o las ecuaciones (9) y (15) son idénticas. r e p r e s e n t a j u s t a m e n t e la fracción d e p a r t í c u l a s q u e en u n m o m e n t o d a d o se e n c u e n t r a n en la iésima celda. Si estas cinco c o n d i c i o n e s se c u m p l e n . si iden tificamos k en la e c u a c i ó n (14) con la l l a m a d a c o n s t a n t e d e B o l t z m a n n kjj. (sh) S(prob) _ s(cal. ¡ — __ C l a r a m e n t e si fj = 1.) ^ g Desorden máximo. Shannon. cosmológico o de otra índole. Cierto es que la función H defínida en la ecuación (10) se asemeja mucho a ella. Entonces. A pesar de los esfuerzos que se han hecho. tendremos que ser muy cuidadosos con especificar claramente qué "estados" de estos sistemas deseamos cuantificar. Si deseamos cuantificar el desorden en un sistema. pero la f ^ que ahí aparece tendría que determinarse unívocamente de la solución de la ecuación integrodiferencial no lineal. ésa es la de Shannon. Y vale la pena insistir que el sentir general de los científicos es que si alguna estructura lógica es la más promisoria para medir el desorden. es por lo menos más objetiva.(e) a todo tiempo. Volvemos finalmente a las interrogantes planteadas en la introducción de este trabajo. biológico. Alternativa mente. Según el criterio de Shannon esos estados deben especificarse por una distribución de números {fi} que satisfaga las con diciones (a) . mien tras sean sistemas en estado de equilibrio. que como ya dijimos coincide con la entropía. sea éste un sistema social. tarea todavía irrealizable. Lo que es inevitable. económico. su generalización es un problema todavía no resuelto. puede hacerse (ver referen cias 7-9). es poder especificar dichas reglas para cuantificar el desorden.(e). ¿Es posible aplicar el concepto de entropía a situaciones (o estados) tan variados como los que sugieren tantos autores? La respues ta. hasta hoy en día todavía no tenemos una generalización de la fórmula (14) que nos permita cuantificar el desorden. y luego mostrar que esa solución satisface los criterios (a) . donde el concepto mismo de estado es un tanto ambiguo y ciertamente no unívoco. Pero observe el lector que la generalización de este resultado a otro tipo de sistemas termodinámicos no es tan trivial aunque. cuando el gas alcanza su estado de equilibrio. aunque no conclusiva. En el caso de sistemas "fuera de equilibrio". En ese caso H sería una medida del desorden del gas a todo tiempo. 76 . la ecuación (14) es aplicable y si deseamos podríamos llamarle entropía a esa medida del desorden. para estados de sistemas fuera de equilibrio. el problema ya no es tan simple. podríamos cuantificar el desorden de acuerdo con otro conjunto de reglas que podría o no ser compatible con la entropía termodinámi ca. Muy a menudo esto se omite y consecuentemente las afir maciones que se hacen carecen de sentido. Sin em bargo. . "Desde la m á q u i n a d e v a p o r hasta el c e r o absoluto". 121. F o n d o d e C u l t u r a Económica. Brillouin. García-Colín S.". ( e d i t o r ) . Jaynes. 28 (1982). 11. Jaynes: Papers on Probability. Reidel Publ. American f of Physics.. T. 1965. Statistics and Statislical Physics. D. F. 3. Edition 1962. Colección "Ciencia d e s d e México" N ú m . 5. 2. p p . T r i b u s . R. A c a d e m i c Press. of Physics. N e w York 1 9 6 1 . 1983.. . 1986. Science and Information Theory. E. . Van N o s t r a n d C o . p . U r b a n a . 1983. T h e r m o s t a t i c s a n d T h e r m o d y n a m i c s . C. y Weaver. se m u e v e n . México. c o m p i l a d o r . Gíbbs Entropies". Colección "Ciencia d e s d e México" N ú m . México. 1068-1073. " I n t r o d u c c i ó n a la t e r m o d i n á m i c a clásica". edición. E.. Mathematical Theory of Communications. F. p p . Co. D o d r e c h t . D. Mé xico. T. Vol. of Illinois Press. D. 391-397. U n i v e r s i d a d N a c i o n a l A u t ó n o m a d e México. S h a n n o n . "Boltzmann vs. 1949. p p . F. 2 n d . 9.. 3a. 5. F o n d o d e C u l t u r a Económica. Vol. M. Revista Mexicana deFísica. L. Univ. 33. F. 1987. 111. 54 (1986). 4. 1986. "Procesos irreversibles" en La física contemporánea. William H . "Ciento diez a ñ o s d e teoría cinética d e los gases". 193-217. American J. 36. D. 10. E. 8. C r o p p e r . L e o p o l d o . Vol.. "Y sin e m b a r g o . 77 . W. 7. Rosenkranz. México. "Rudolf Clausius a n d Ihe Road to Entropy".REFERENCIAS 1. 6. New York. D. Las ciencias en el Siglo XX. G u i l l e r m o A g u i l a r .. Editorial Trillas. H o l a n d a .
Report "06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf"