No
se requiere una inteligencia muy adiestrada para captar el
significado de la temperatura, la presión, la concentración o el
volumen de algo, no sucede lo mismo con la entropía, una de las
magnitudes químicas más difícil de entender. Antes de comentarla
señalaré que el concepto se inventó en la termodinámica, la
ciencia que estudia el funcionamiento de los motores térmicos, o
sea, de casi todos los motores de los coches, barcos, aviones y
trenes, también de los refrigeradores y de las bombas de calor;
sobra decir más para resaltar su importancia.
Hay
dos maneras de aproximarse al significado de la entropía: una
procede del mundo macroscópico y otra del microscópico. Según la
primera perspectiva, definiríamos la entropía como una medida de la
cantidad de energía inútil, o sea, de la energía que no está
disponible para realizar un trabajo. Según el otro significado, la
entropía depende única y exclusivamente de la multiplicidad del
estado en que se encuentra un conjunto de moléculas. ¿Qué es,
entonces, la multiplicidad? El número de maneras diferentes en que
pueden disponerse las moléculas. Para interpretar toda esta
palabrería usaré un ejemplo: el lanzamiento de un par de dados
numerados. La multiplicidad de mostrar dos es uno, porque sólo hay
una disposición de ambos dados que nos da ese resultado; la
multiplicidad de mostrar siete es seis (máxima multiplicidad),
porque con los dos dados hay seis arreglos que muestran un total de
siete; y así sucesivamente averiguaríamos la multiplicidad de la
puntuación tres, cuatro… hasta doce. ¿Nos muestra algo todo esto?
Si, colegimos que la probabilidad de encontrar el conjunto de
moléculas en un estado concreto dependerá de la multiplicidad de
ese estado; esperamos que cualquier cosa, que contiene trillones o
cuatrillones de moléculas, se encuentre en el estado de máxima
multiplicidad, porque ese estado será el más probable y, por tanto,
el que tiene una entropía máxima. Todavía queda un pequeño matiz
que añadir: en muchos casos, la entropía se puede visualizar como
el desorden. Si las instantáneas de alguna cosa en dos momentos
diferentes (un huevo entero y un huevo roto), muestran que una está
más desordenada, se puede deducir que se produjo más tarde: el
curso natural de los acontecimientos conduce a un mayor desorden, a
una mayor multiplicidad, a una mayor entropía. Puesto que la
entropía nos informa sobre la evolución en el tiempo, colegimos que
nos proporciona la dirección del tiempo.
No hay comentarios:
Publicar un comentario