EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA 
UNA APROXIMACIÓN MATEMÁTICA

EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA UNA APROXIMACIÓN MATEMÁTICA

Josep Maria Franquet i Bernis

Volver al índice

 

 

 

 

12.5.3. La entropía de Shannon

La entropía definida por Shannon , referida a la teoría de la información, hace referencia a la cantidad media de información que contiene una variable aleatoria (psicológica) o, en particular, una fuente transmisión binaria. La información que aporta un determinado valor, xi, de una variable aleatoria discreta X, se define como:

I(xi) = log2(1/p(xi))

cuya unidad es el bit si se utiliza el logaritmo en base 2 (por ejemplo, cuando se emplea el logaritmo neperiano o natural se habla de nats).

La entropía o información media de la variable aleatoria discreta, X, se determina como la información media del conjunto de valores discretos que puede adoptar (también medida en bits):

H(x) = Σip(xi) •log2(1/p(xi))

Además de su definición y estudio, Shannon demostró analíticamente que la entropía es el límite máximo al que se puede comprimir una fuente sin ninguna pérdida de información.