EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA 
UNA APROXIMACIÓN MATEMÁTICA

EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA UNA APROXIMACIÓN MATEMÁTICA

Josep Maria Franquet i Bernis

Volver al índice

 

 

 

 

12.5.2. El concepto termodinámico y su aplicación

En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. En un sentido más amplio, que utilizaremos aquí, puede interpretarse como la medida de la uniformidad de la energía de un sistema psicológico. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural.

Cuando se plantea la pregunta: ¿por qué ocurren los sucesos de la manera que ocurren, y no al revés? se busca una respuesta que indique cuál es el sentido de los sucesos en la naturaleza. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que eventualmente el trozo caliente se enfriará y el trozo frío se calentará, logrando al final una temperatura más o menos uniforme e intermedia. Sin embargo, el proceso inverso, es decir, un trozo calentándose (el caliente) y el otro enfriándose aún más (el frío) es muy improbable que tenga lugar, a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente, es decir, a maximizar la entropía.

La función termodinámica “entropía” es central para la segunda Ley de la Termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene una alta entropía. Puesto que un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), esta reorganización resultará en un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, alcanzándose la configuración de mayor probabilidad.

Podemos decir que un ser vivo (sistema psicológico) sano, funcionando correctamente, tiene entropía baja. Si aumenta el desorden en los componentes del individuo podemos decir que su entropía está aumentando. Hay un cierto umbral, un cierto tamaño de entropía por encima del cual el ser vivo muere. Como el sistema psicológico no es un sistema aislado, podemos utilizar energía proporcionada por otros sistemas para corregir el desorden, es decir, para disminuir la entropía. Pero sabemos, por experiencia, que esa posible intervención tiene un límite: hasta ahora no conocemos ningún ser vivo que haya vivido o funcionado eternamente.

La entropía, coloquialmente hablando, puede considerarse como la medida del desorden de un sistema, es decir, cuán homogéneo está el sistema. En los años 1890–1900, el físico austríaco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como “mecánica estadística”, que constituye una teoría profundamente influenciada por el concepto de entropía.

Según estas ideas, la entropía queda definida por la siguiente ecuación:

, donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados posibles para el sistema.

La célebre ecuación anterior se encuentra grabada sobre la lápida de la tumba de Boltzmann en el Zenmtralfriedhof de Viena, quien se suicidó en 1906, profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época. El significado literal de la ecuación es el siguiente: La cantidad de entropía de un sistema es proporcional al logaritmo natural de su número de microestados posibles.

Ahora bien, su significado final es aún materia de discusión en física teórica, dado el profundo alcance que posee.

La entropía de formación, en fin, de un compuesto químico (o de una substancia en estado elemental), en termodinámica y termoquímica, es la diferencia (incremento o decremento) de entropía en el proceso de su formación a partir de sus elementos constituyentes (en estado atómico o en cierta forma predefinida). Cuanta mayor (más positiva) sea la entropía de formación de una especie química, más favorable (por entropía) será su formación. Por el contrario, cuanto más positiva sea su energía de formación, menos favorable será energéticamente.