sábado, 14 de diciembre de 2019

Entropía



     No se requiere una inteligencia muy adiestrada para captar el significado de la temperatura, la presión, la concentración o el volumen de algo, no sucede lo mismo con la entropía, una de las magnitudes químicas más difícil de entender. Antes de comentarla señalaré que el concepto se inventó en la termodinámica, la ciencia que estudia el funcionamiento de los motores térmicos, o sea, de casi todos los motores de los coches, barcos, aviones y trenes, también de los refrigeradores y de las bombas de calor; sobra decir más para resaltar su importancia.
     Hay dos maneras de aproximarse al significado de la entropía: una procede del mundo macroscópico y otra del microscópico. Según la primera perspectiva, definiríamos la entropía como una medida de la cantidad de energía inútil, o sea, de la energía que no está disponible para realizar un trabajo. Según el otro significado, la entropía depende única y exclusivamente de la multiplicidad del estado en que se encuentra un conjunto de moléculas. ¿Qué es, entonces, la multiplicidad? El número de maneras diferentes en que pueden disponerse las moléculas. Para interpretar toda esta palabrería usaré un ejemplo: el lanzamiento de un par de dados numerados. La multiplicidad de mostrar dos es uno, porque sólo hay una disposición de ambos dados que nos da ese resultado; la multiplicidad de mostrar siete es seis (máxima multiplicidad), porque con los dos dados hay seis arreglos que muestran un total de siete; y así sucesivamente averiguaríamos la multiplicidad de la puntuación tres, cuatro… hasta doce. ¿Nos muestra algo todo esto? Si, colegimos que la probabilidad de encontrar el conjunto de moléculas en un estado concreto dependerá de la multiplicidad de ese estado; esperamos que cualquier cosa, que contiene trillones o cuatrillones de moléculas, se encuentre en el estado de máxima multiplicidad, porque ese estado será el más probable y, por tanto, el que tiene una entropía máxima. Todavía queda un pequeño matiz que añadir: en muchos casos, la entropía se puede visualizar como el desorden. Si las instantáneas de alguna cosa en dos momentos diferentes (un huevo entero y un huevo roto), muestran que una está más desordenada, se puede deducir que se produjo más tarde: el curso natural de los acontecimientos conduce a un mayor desorden, a una mayor multiplicidad, a una mayor entropía. Puesto que la entropía nos informa sobre la evolución en el tiempo, colegimos que nos proporciona la dirección del tiempo.

No hay comentarios: